中文标题:文本增强的知识图谱表示学习
发表会议:IJCAI 2016
文章链接:Text-Enhanced Representation Learning for Knowledge Graph
源代码:无
1 Introduction
1.1问题陈述 :
知识图谱的表示将每个关系视为从头部实体到尾部实体的一个翻译,包括TransE,TransH和TransR等基于翻译的方法简单有效,并且实现了最先进的性能。然而,它们仍然存在以下问题:
在建模1对N,N对1和N对N关系时的性能较低。
由于知识图谱的结构稀疏性而导致性能有限。
1.2 解决办法:
本文提出了一种新的基于文本增强的知识嵌入(TEKE)方法,用于知识图谱的表示学习。
1.2.1 要点
1.2.2 四个关键组件
实体标注
实体上下文嵌入
实体/关系表示建模
表示训练
2 Methodology
2.1 实体标注
给定文本语料库D = ⟨ w 1 … w i … w m ⟩ \mathcal{D}=\left\langle w_{1} \ldots w_{i} \ldots w_{m}\right\rangle D = ⟨ w 1 … w i … w m ⟩ 通过实体链接工具自动标注知识图谱KG中的实体,获得实体标注的文本集:
D ′ = ⟨ X 1 … X i … X m ′ ⟩ \mathcal{D}^{\prime}=\left\langle X_{1} \ldots X_{i} \ldots \mathrm{X}_{m^{\prime}}\right\rangle D ′ = ⟨ X 1 … X i … X m ′ ⟩
2.2 实体上下文嵌入
为了将知识和文本信息桥接到一起,作者构建了一个基于实体标注文本语料库D ′ \mathcal{D}^{\prime} D ′ 的共现网络G = ( X , Y ) \mathcal{G}=(\mathcal{X}, \mathcal{Y}) G = ( X , Y ) 。x i ∈ X : x_{i} \in \mathcal{X}: x i ∈ X : 表示一个节点(一个词或者一个实体)。 y i j ∈ Y : x i y_{i j} \in \mathcal{Y}: \quad x_{i} y i j ∈ Y : x i 和 x j x_{j} x j 的共现频率。
Text :James Francis Cameron, the famous director of the movie Avatar, is an The fiction film Avatar directed by J. Cameron was nominated by In 1994 director James Cameron wrote an 80-page treatment for Avatar.
n ( x i ) = { x j ∣ y i j > θ } \mathrm{n}\left(x_{i}\right)=\left\{x_{j} | y_{i j}>\theta\right\} n ( x i ) = { x j ∣ y i j > θ } 即和x i x_i x i 共现频率较高的词。
对于上面的文本:
n ( Avatar ) = { film, movie, directed … } \mathrm{n}(\text { Avatar })=\{\text { film, movie, directed } \ldots\} n ( Avatar ) = { film, movie, directed … }
n ( J a m e s C a m e r o n ) = { director … } n(James_Cameron)=\{\text {director} \ldots\} n ( J a m e s C a m e r o n ) = { director … }
n ( x i , x j ) = { x k ∣ x k ∈ n ( x i ) ∩ n ( x j ) } \mathrm{n}\left(x_{i}, x_{j}\right)=\left\{x_{k} | x_{k} \in \mathrm{n}\left(x_{i}\right) \cap \mathrm{n}\left(x_{j}\right)\right\} n ( x i , x j ) = { x k ∣ x k ∈ n ( x i ) ∩ n ( x j ) } 即n ( x i ) n(x_i) n ( x i ) 和n ( x j ) n(x_j) n ( x j ) 的交集。
对于上面的文本:
n ( A v a t a r , j a m e s c a m e r o n ) = { direct … } n(Avatar,james_cameron) =\{\text { direct } \ldots\} n ( A v a t a r , j a m e s c a m e r o n ) = { direct … }
n ( x i ) = 1 ∑ x j ∈ n ( x i ) y i j ∑ x j ∈ n ( x j ) y i j ⋅ x j n\left(x_{i}\right)=\frac{1}{\sum_{x_{j} \in n\left(x_{i}\right)} y_{i j}} \sum_{x_{j} \in \mathrm{n}\left(x_{j}\right)} y_{i j} \cdot x_{j} n ( x i ) = ∑ x j ∈ n ( x i ) y i j 1 ∑ x j ∈ n ( x j ) y i j ⋅ x j 即n ( x i ) n(x_i) n ( x i ) 中节点向量的加权平均值。
x i x_i x i 和x j x_j x j 的成对上下文嵌入
n ( x i , x j ) = 1 Z ∑ x k ∈ n ( x i , x j ) min ( y i k , y j k ) ⋅ x k n\left(x_{i}, x_{j}\right)=\frac{1}{Z} \sum_{x_{k} \in \mathrm{n}\left(x_{i}, x_{j}\right)} \min \left(y_{i k}, y_{j k}\right) \cdot x_{k} n ( x i , x j ) = Z 1 ∑ x k ∈ n ( x i , x j ) min ( y i k , y j k ) ⋅ x k 即n ( x i , x j ) n(x_i,x_j) n ( x i , x j ) 中节点向量的加权平均值。
2.3 实体/关系表示建模
将文本上下文信息整合到知识图谱的表示学习中,表示模型基于传统的基于翻译的方法。h ^ \hat{\mathbf{h}} h ^ 和 t ^ \hat{\mathbf{t}} t ^ 是 h h h 和 t t t 的逐点上下文嵌入的线性变换 ,r ^ \hat{\mathbf{r}} r ^ 是 h h h 和 t t t 的成对文本上下文嵌入的线性变换 。
h ^ = n ( h ) A + h t ^ = n ( t ) A + t r ^ = n ( h , t ) B + r \begin{aligned}
\hat{\mathbf{h}} &=\mathbf{n}(h) \mathbf{A}+\mathbf{h} \\
\widehat{\mathbf{t}} &=\mathbf{n}(t) \mathbf{A}+\mathbf{t} \\
\hat{\mathbf{r}} &=\mathbf{n}(h, t) \mathbf{B}+\mathbf{r}
\end{aligned} h ^ t r ^ = n ( h ) A + h = n ( t ) A + t = n ( h , t ) B + r
打分函数:f ( h , r , t ) = ∥ h ^ + r ^ − t ^ ∥ 2 2 f(h, r, t)=\|\widehat{\mathbf{h}}+\widehat{\mathbf{r}}-\widehat{\mathbf{t}}\|_{2}^{2} f ( h , r , t ) = ∥ h + r − t ∥ 2 2
2.4 表示训练
L = ∑ ( h , r , t ) ∈ S ( h ′ , r , t ′ ) ∈ S ′ max ( 0 , f ( h , r , t ) + γ − f ( h ′ , r , t ′ ) ) L=\sum_{(h, r, t) \in \mathcal{S}\left(h^{\prime}, r, t^{\prime}\right) \in \mathcal{S}^{\prime}} \max \left(0, f(h, r, t)+\gamma-f\left(h^{\prime}, r, t^{\prime}\right)\right) L = ( h , r , t ) ∈ S ( h ′ , r , t ′ ) ∈ S ′ ∑ max ( 0 , f ( h , r , t ) + γ − f ( h ′ , r , t ′ ) )
以上四步如下图所示:
3 Experiments
3.1 数据集
WordNet 生成的 WN18 and WN11,Freebase 生成的 FB15K 和 FB13。
3.2 任务
3.2.1 链接预测
3.2.2 三元组分类