【论文笔记】Accurate Text-Enhanced Knowledge Graph Representation Learning

中文标题:精确的文本增强的知识图谱表示学习

发表会议:NAACL 2018

文章链接:Accurate Text-Enhanced Knowledge Graph Representation Learning

源代码:无

1 Introduction

1.1问题陈述 :

以往的知识图谱表示在不同的三元组中以唯一的表示形式表示相同的实体/关系,而不考虑关系和实体的模糊性。这样带来了两个问题:

  1. 关系是模糊的,特定三元组中关系的准确语义与同一三元组中的实体相关。例如,关系“ parentOf ”可能指的是两个不同的意思。“父亲”和“母亲”),这取决于三元组中的实体。
  2. 由于不同的关系可能关系到一个实体的不同属性,同一实体可能在不同的三元组中表达不同。例如,在描述“ 巴拉克•奥巴马 ”时,不同的词应该用关系 “ parentOf ” 和 “ professionOf ” 来强调。
    【论文笔记】Accurate Text-Enhanced Knowledge Graph Representation Learning

1.2 解决办法:

本文提出了一种准确的文本增强知识表示模型,该模型通过为每个三元组加入准确的文本信息来增强实体和关系的表示。为了学习给定三元组的表示,我们首先从文本语料库中提取出其准确的关系,这反映了它的头实体和尾实体之间的具体关系。在此基础上,提出了关系提及与实体描述之间的相互注意机制,以增强实体和关系的表示。

1.3 贡献

  1. 第一个同时利用关系提及和实体描述来处理关系和实体的模糊性。
  2. 提出一种相互注意机制,该机制利用关系和实体的文本表示来相互增强。
  3. 本文在两个最广泛使用的基准上实现了三元组分类任务的最新性能。

2 Methodology

【论文笔记】Accurate Text-Enhanced Knowledge Graph Representation Learning

2.1 文本信息抽取

给定一个三元组,首先从文本语料库中抽取其关系准确的文本提及。

2.1.1 实体链接

给定一个句子D=w1wiwm{D}=\left\langle w_{1} \ldots w_{i} \ldots w_{m}\right\rangle和一个实体集E=e1eiem{E}=\left\langle e_{1} \ldots e_{i} \ldots e_{m}\right\rangle通过实体链接工具自动标注知识图谱KG中的实体,获得一个新的句子D=(w1,,e1,,em,,wn)\mathcal{D}^{\prime}=\left(w_{1}, \dots, e_{1}, \dots, e_{m}, \dots, w_{n}\right),其中wiw_i代表DD的第ii个词,eje_j表示EE中第jj个实体。

2.1.1 关系提及抽取

为了抽取特定三元组中准确的关系文本提及,首先收集包含三元组的两个实体的所有句子作为候选文本提及。在此基础上,计算了基于 WordNet 的文本提及与关系之间的相似度。例如,对于三元组 (Steve Jobs , / people / person / parents , Paul Jobs ),我们只在句子包含两个实体和至少一个关系的下义词/同义词的情况下,才将句子视为其准确的关系提及。

通过这种方法,我们可以提取出精度较高的三元组的准确关系提及。但是,如果一个关系提到不包含任何关系的下义词/同义词,我们的方法将无法识别它。例如:"In 1961 Obama was born in Hawaii, US"表达了/people/person/nationality这样的关系,但是句子中没有它的下义词/同义词。为此,进一步使用词嵌入来计算相似性。使用后两个词的预训练嵌入向量的平均向量表示关系,然后,如果句子中的单词与关系表示之间的相似度高于阈值,则提取一个句子作为给定三元组的准确关系提及,而单词与关系之间的相似度则通过其表示的余弦相似度来计算 。

2.2 学习文本表征

2.2.1 嵌入层

给定一个关系提及m={w1,w2,w3,,wn}m=\left\{w_{1}, w_{2}, w_{3}, \dots, w_{n}\right\},通过词嵌入矩阵将每个词wiw_i转换为向量eidw\overrightarrow{e_{i}} \in d^{w}

2.2.2 BiLSTM层

使用不同的BiLSTM网络编码关系提及和实体描述。

2.2.3 相互注意力层

相互注意力层的两个目标:

  1. 识别在同一三元组中与实体描述相关的关系提及中的词语。
  2. 识别实体描述中的被关系强调的词语。

为了实现上述目标,首先利用关系表示作为注意力来推断实体描述的表示:

ai(e)=exp(score(hi,r))iexp(score(hi,r))score(hi,r)=hiTWer\begin{array}{c} a_{i}(e)=\frac{\exp \left(\operatorname{score}\left(\vec{h}_{i}, \vec{r}^{\prime}\right)\right)}{\sum_{i^{\prime}} \exp \left(\operatorname{score}\left(\overrightarrow{h_{i}^{\prime}}, \vec{r}^{\prime}\right)\right)} \\ \operatorname{score}(\overrightarrow{h_{i}}, \overrightarrow{r^{\prime}})=\overrightarrow{h_{i}^{T}} W_{e} \overrightarrow{r^{\prime}} \end{array}

其中,rdw\overrightarrow{r^{\prime}} \in d^{w}是对BiLSTM所有隐藏向量求的平均值得到的关系提及的表示。ri\overrightarrow{r_{i}}wiw_i的隐藏表示,wedw×2×hw_e \in d^{w \times 2 \times h}是训练后的矩阵参数。

实体描述的关系敏感表示为:

e=tanh(aeTHe)e^{\overrightarrow{*}}=\tanh \left(\vec{a}_{e}^{T} H_{e}\right)

其中,aedm\vec{a_e} \in d^m是实体描述中单词上的关系特异性注意向量,dmd^m是描述的长度,Hedm×hH_e \in d^{m \times h}是BiLSTM 生成的隐藏表示矩阵,edh\vec{e^*} \in d^h是描述的表示。这样就学习到了头实体ehdh\vec{e^*_h} \in d^h的实体描述的表示和尾实体etdh\vec{e^*_t} \in d^h的注意关系表示。

以上两个实体描述表示作为注意力来学习三元组敏感关系提及:

e=eh+etai(r)=exp(score(hi,e))iexp(score(hi,e))score(hi,e)=hiTWre\begin{array}{c} \vec{e}=e_{h}^{\overrightarrow{*}}+e_{t}^{\overrightarrow{*}} \\ a_{i}(r)=\frac{\exp \left(\operatorname{score}\left(\vec{h}_{i}, \vec{e}\right)\right)}{\sum_{i^{\prime}} \exp \left(\operatorname{score}\left(h_{i^{\prime}}, \vec{e}\right)\right)} \\ \operatorname{score}(\overrightarrow{h_{i}}, \vec{e})=\overrightarrow{h_{i}}^{T} W_{r} \vec{e} \end{array}

其中,eh\vec{e^*_h}et\vec{e_{t}^{*}}是头实体描述和尾实体描述的表示,hi\vec{h_i}是文本中每个词wiw_i的隐藏向量,Wrdw×2×hW_r \in d^{w \times 2 \times h}是训练好的参数矩阵。

三元组敏感关系提及:

r=tanh(arTHr)\overrightarrow{r^{*}}=\tanh \left(\overrightarrow{a_{r}^{T}} H_{r}\right)

其中,arTdn\overrightarrow{a_{r}^{T}} \in d^n是关系提及中单词的三元敏感注意力向量,dnd^n是关系提及的长度,Hrdm×hH_r \in d^{m \times h}是BiLSTM 生成的隐藏表示矩阵,rdh\vec{r^*} \in d^h是提及的表示。通过这种方式学习了所有文本提及的三元注意表示。

2.3 文本增强表示学习

对于每个给定的三元组及其精确的文本信息,我们将基于实体ehdhe_{h}^{\overrightarrow{*}} \in d^{h}etdh\overrightarrow{e_{t}^{*}} \in d^{h}和关系rdh\vec{r^*} \in d^h的文本表示。增强的关系和实体表示如下:

Re(rate)=αRe(rkg)+(1α)r,0α1Re(hate)=αRe(hkg)+(1α)eh,0α1Re(tate)=αRe(tkg)+(1α)et,0α1\begin{array}{l} \operatorname{Re}\left(\vec{r}_{a t e}\right)=\alpha \cdot \operatorname{Re}\left(\vec r _{kg}\right)+(1-\alpha) \cdot \overrightarrow{r^{*}}, 0 \leq \alpha \leq 1 \\ \operatorname{Re}\left(\vec{h}_{a t e}\right)=\alpha \cdot \operatorname{Re}\left(\vec h_{k g}\right)+(1-\alpha) \cdot e_{h}^{\overrightarrow{*}}, 0 \leq \alpha \leq 1 \\ \operatorname{Re}\left(\vec{t}_{\text {ate}}\right)=\alpha \cdot \operatorname{Re}\left(\vec{t}_{k g}\right)+(1-\alpha) \cdot \overrightarrow{e_{t}^{*}}, 0 \leq \alpha \leq 1 \end{array}

其中,α\alpha是结构化表示的权重,和rkgdhr_{k g}^{\rightarrow} \in d^{h}hkgdhh_{k g}^{\rightarrow} \in d^{h}tkgdht_{k g}^{\rightarrow} \in d^{h}分别是rrhhtt从知识图谱中学习的表示向量,rdh\overrightarrow{r^{*}} \in d^{h}ehdhe_{h}^{*} \in d^{h}etdhe_{t}^{*} \in d^{h}表示从文本学习到的表示向量,ratedh\vec{r}_{a t e} \in d^{h}hate\vec{h}_{a t e}tate\vec{t}_{a t e}是精确的文本增强的关系、头实体和尾实体表示。

2.4 模型训练

L=gKGqKGmax(0,γ+f(q)f(q))L=\sum_{g \in K G} \sum_{q^{\prime} \in K G^{\prime}} \max \left(0, \gamma+f(q)-f\left(q^{\prime}\right)\right)

3 Experiments

3.1 数据集:

WN11,WN18,FB13 和 FB15k。

3.2 任务:

3.2.1 链接预测

【论文笔记】Accurate Text-Enhanced Knowledge Graph Representation Learning

3.2.2 三元组分类

【论文笔记】Accurate Text-Enhanced Knowledge Graph Representation Learning