赞
踩
EACL 2017
Rajarshi Das, Arvind Neelakantan, David Belanger, Andrew McCallum
College of Information and Computer Sciences
University of Massachusetts, Amherst
{rajarshi, arvind, belanger, mccallum}@cs.umass.edu
本文主要研究的对象从文本中填充具有不同语义的大规模知识图谱,从文本中填充知识图谱的一个方法是通用模式,学习关系类型的向量表示。填充知识图谱的目的不仅仅为了支撑查阅型的问答,也是通过推理实体以及关系,推断不直接存储在KB中的事实。过去一些基于矩阵补全、张量分解的方法只适合单个边上的操作,我们更期望的是多跳路径进行推理。
之前有文章通过RNN对多跳路径进行编码,这种方法代表了使用神经网络对Horn子句链进行复杂推理的一个关键例子,但是对于多个推理来说,这种方法是不准确和不适用的。本文期望提高基于RNN的方法在大型知识图谱上推理的准确性和实用性。本文主要做出了一下几点贡献:
每一步的中间表示
计算路径
π
\pi
π的向量表示
y
π
y_\pi
yπ 与预测关系
r
r
r的向量表示
y
r
y_r
yr的内积
计算实体对
(
e
s
,
e
t
)
(e_s,e_t)
(es,et)参与查询关系
r
r
r的概率
上述基于RNN模型的弊端:
共享参数
打分函数
{
s
1
,
s
2
,
.
.
.
,
s
N
}
\{s_1,s_2,...,s_N\}
{s1,s2,...,sN} 表示
N
N
N条路径的打分
加入实体信息:
训练:
M
M
M是所有的训练样例的个数,
Δ
R
+
\Delta^+_R
ΔR+ 表示所有的正例,
Δ
R
−
\Delta^-_R
ΔR−是 负例
1、pooling 的影响
2. 比较多跳模型以及加入实体信息的影响
3. 有限数据集上的表现
4 路径查询
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。