【论文笔记】Noise Mitigation for Neural Entity Typing and Relation Extraction
文章目录
Noise Mitigation for Neural Entity Typing and Relation Extraction
这次要认真看了,因为要探究fined-grained entity typing如何优化RE的。
Abstract
本文主要针对两种不同类型information extraction问题中出现的噪音。
- Distant supervision的噪音
- 输入特征的噪音
任务为ET和RE
-
对于DS的噪音问题,使用MIML,将其第一个应用到Fine-grained ET问题上
-
对于输入特征的噪音,提出方法,优化noisy的entity type预测,并将其用于关系抽取。
我对第二点的理解就是entity type的标注会有错误,所以会导致输入特征有噪音,作者提出一种更加robust的预测,缓解了初始预测的错误导致后续任务的噪音。
1 Introduction
增加entity types作为特征可以提升RE模型的性能,然而noisy的训练数据和分类的困难会导致ET的错误预测,最终影响RE的性能。
作者提出的joint training model
其他的是将ET作为pipeline
2 Related Work
文中entity typing的种类是102种,而且与RE相比,是个multi-label问题
在joint work之中,不是只给出二元的entity type的值,而是给出概率的output。因此关系抽取可以补全entity typing导致的错误。
3 MIML Learning for Entity Typing
整体框架:
举个例子,这是一个MIML:
此处仅代表给定的情况下, label的概率,可以为任何label,那么就可以求出所有type 的概率。从而决定是否为这个类型。
此外还有AVG, ATT等公式类型。
最终求得的结果是所有type 的概率,这是确定的。 entity的训练样本从corpus中来。
获取之后,通过二元的cross entropy loss进行训练。
最终entity的信息与context进行concatenation,然后进行最终的关系预测:
-
是可训练参数
-
就是所有的entity type的数量
-
是**函数 tanh.
这样就把multi-label的信息encode进入RE之中了。
4 Experiments
[email protected] = precision
MAP = mean average precision over types.
F1都是micro average F1
F1 head是entity frequncy > 100
F1 tail 是entity frequency < 5
总结:
主要的亮点是(1)joint learn, (2)first distant supervision to Fine grained entity typing with MIML。
模型虽然简单,但其实是distant supervised setting,会比较有趣,对两个任务的性能都有提升。