Abductive Commonsense Reasoning —— 溯因推理
溯因推理是对不完全观察情境的最合理解释或假设的推论。
上图给出的是一个简明扼要的例子:
给定不同时间节点上的情境观测值 O1O1 和 O2O2 ,溯因推理的任务是从给出的一众解释性假设 H1, H2, ⋯,HnH1, H2, ⋯,Hn 中选出最合理的。例如,上图在 t0t0 时刻观测到的情境 O1O1 是:Jenny打扫好了房间并给窗户留了条缝隙之后去工作了。而在 tntn 时刻,情境变成了:当Jenny回到家,发现房间里一片狼藉。针对这两个观测到的不同时间节点上情境,有若干个解释性假设 H1, H2, H3H1, H2, H3。
- 对于假设 H1H1 ,小偷的入室盗窃(broke into)很好的承接了 O1O1 中”未关紧窗户(a ***** open)“带来的安全隐患,并很好地解释了情境 O2O2 中房间为什么一团乱(小偷翻东西),因此看上去假设 H1H1 非常合理的解释了情境 O1O1 到情境 O2O2 的转换。
- 对于假设 H2H2 ,假设中提到的大只的鸟(large bird)似乎不太可能从窗户缝隙飞进房间,但是如果不考虑情境 O1O1,该假设可以很好地解释房间乱的现象(鸟儿被困房间,为了逃离,弄得房间很乱)
- 对于假设 H3H3,前半部分(At work)可以很好地承接情境 O1O1(Jenny去工作了,因此Jenny在工作中),但是该假设后半部分(blew her papers everywhere)完全没法解释情境 O2O2, 因为该假设完全指的是发生在办公处的事情,而情境 O2O2 则是Jenny家中的场景。
综合以上对三个假设的考量,我们很容易得出,第一个假设是最符合情境 O1O1 和 O2O2 的。然而这看似简单的推理过程,对于现有的模型来说,却不是那么容易的。
虽然长期以来”溯因“这种行为被认为是人们解读、理解自然语言的核心,但受限于数据集的缺乏和模型的性能,支撑溯因自然语言推理和生成的研究却相对较少。
1|2ART数据集
ART(叙事文本中的溯因推理——ABDUCTIVE REASONING IN NARRATIVE TEXT)是第一个用于研究叙事文本中溯因推理的大规模基准数据集。其组成如下:
-
20K左右的叙述背景 ——成对的观察结果<O1 ,O2O1 ,O2>
- 这些观察情境是根据ROCStories数据集进行编写的。ROCStories是一个由五句话组成的手动精选短篇故事的大集合。它被设计为每个故事都有一个清晰的开始和结束,这自然对应到ART数据集中的 O1,O2O1,O2 。
-
超过200K的解释性假设
- 按可能的解释性假设 h+h+ 和不太可能的解释性假设 h−h− 进行众包。对于 h−h− 的众包 ,要求众包工人在 h+h+ 的基础上,进行最小限度的编辑(最多改动5个单词),为每个 h+h+ 创造不可信的假设变量 h−h−。
-
数据集分析
- 下面分别分析了训练集、开发集、测试集上对应每个观测的平均对应的正反解释性假设的个数和假设及观测文本句的平均词长。
1|3任务
论文中提出的两个溯因推理任务分别是αNLI(溯因自然语言推理——Abductive Natural Language Inference)和αNLG(溯因自然语言生成 —— Abductive Natural Language Generation)。
ART数据集中每个例子按如下格式定义:
- O1O1 —— t1t1时刻的观察
- O2O2 —— t2t2时刻的观察
- h+h+ —— 对观察 O1O1 和观察 O2O2 的更合理的解释
- h−h− —— 对观察 O1O1 和观察 O2O2 来说不太合理的解释
αNLI
给定一对观测和一对解释性假设,αNLI的任务是选出两个假设中更有可能的那个。
在概率框架下模型的目标函数为:
h∗=argmaxhiP(H=hi∣O1,O2)h∗=argmaxhiP(H=hi∣O1,O2)
根据贝叶斯法则,以观测 O1O1 为先验条件,可以重写上述公式:
P(hi∣O1,O2)=P(O2,O1,hi)P(O1,O2)=P(O2∣hi,O1)P(hi,O1)P(O2,O1)=P(O2∣hi,O1)P(hi∣O1)P(O2∣O1)(1)(1)P(hi∣O1,O2)=P(O2,O1,hi)P(O1,O2)=P(O2∣hi,O1)P(hi,O1)P(O2,O1)=P(O2∣hi,O1)P(hi∣O1)P(O2∣O1)
因为 P(O2∣O1)P(O2∣O1) 是定值,所求又是优化问题,所以可以仅考虑左侧的目标函数与右侧乘式的相关关系即可:
P(hi∣O1,O2)∝P(O2∣hi,O1)P(hi∣O1)P(hi∣O1,O2)∝P(O2∣hi,O1)P(hi∣O1)
根据上式,建立如下若干独立性假设,为αNLI任务构建一套概率模型:
- HiHi 与 O1,O2O1,O2都无关时(模型没用到观测值)
P(hi∣O1,O2)=P(hi)P(hi∣O1,O2)=P(hi)
-
HiHi 仅与 O1,O2O1,O2其中一个有关(模型用到了一个观测值)
-
线性链模型 —— HiHi 与 O1,O2O1,O2都直接相关,但 O1⊥O2O1⊥O2 (模型使用两个观测值,但独立地考虑了每个观测值对假设的影响),
h∗=argmaxhiP(O2∣hi)P(hi∣O1) where (O1⊥O2∣H)h∗=argmaxhiP(O2∣hi)P(hi∣O1) where (O1⊥O2∣H)
- 全连接(模型使用两个观测值,结合两个观测值的信息选择合理的假设),目标函数为:
h∗=argmaxhiP(O2∣hi,O1)P(hi∣O1)h∗=argmaxhiP(O2∣hi,O1)P(hi∣O1)
在论文的实验中,将不同的独立性假设文本输入BERT进行编码。对于前两个概率模型,可以通过简单地将模型的输入限制为相关变量来加强独立性。另一方面,相关线性链模型将所有三个变量 O1,O2,HO1,O2,H 都作为输入,通过限制模型的形式以加强条件独立性。具体来说,学习一个具有二分类功能的分类器:
PLinear Chain (h∣O1,O2)∝eϕ(O1,h)+ϕ′(h,O2)PLinear Chain (h∣O1,O2)∝eϕ(O1,h)+ϕ′(h,O2)
其中,ϕϕ 和 ϕ′ϕ′ 为产生标量值的神经网络模型。
αNLG
给定 O1,O2,h+O1,O2,h+ 为一组的的训练数据,αNLG的任务就是最大化 O1,O2,h+O1,O2,h+ 对应的文本句在生成模型中的生成概率。同时,还可以在给定两个观测的基础上再添加背景知识 KK 作为条件,模型的损失函数构造如下:
L=−∑i=1NlogP(whi∣wh<i,wo11…wo1m,wo21…wo2n,K)L=−∑i=1NlogP(wih∣w<ih,w1o1…wmo1,w1o2…wno2,K)
其中,O1={wo11…wo1m}O1={w1o1…wmo1} ,O2={wo21…wo2n}O2={w1o2…wno2},h+={wh1…whl}h+={w1h…wlh},它们都由其自然语言文本对应的token组成。 wh<iw<ih 代表当前位置的前 ii 个token,whiwih 为当前位置 ii 处的token。模型的训练目标就是最大化句子的生成概率 PP,也即最小化上述公式的损失 LL。
1|4实验结果
αNLI
αNLI任务被构造成了一个二分类问题。
Baseline
- SVM —— 利用Glove词嵌入,考虑词长度、词的重叠和情感特征等对两个假设选项进行选择。(50.6%)
- BOW —— 将两个观察和一个解释性假设文本串接在一起,利用Glove为串接起来的文本构建句子嵌入,再通过一个全连接网络为包含每个不同的解释性假设选项的句子的嵌入打分。(50.5%)
- Bi-LSTM + max-pooling —— 用Bi-LSTM编码句子,使用经过最大池化后的句子嵌入进行打分。(50.8%)
可以看到,传统分类器 + 上下文无关的单词嵌入的方式对解决这个二分类问题看上去几乎毫无作用(因为随机二选一都有一般的概率选对)。
实验模型
采用预训练模型GPT和BERT编码观测和解释性假设。
- 对于GPT,将观测 O1O1 和解释性假设 HH 串接在一起,然后使用 [SEP] 将其与观测 O2O2 分隔开,以[START] 和 [SEP] 结尾。
- 对于BERT,根据不同独立性假设。有如下五种输入的构造方式:
评估
最后一列代表模型在论文提出的 ARTART 数据集上的表现,和前四个baseline相比,基于GPT和BERT构造的分类模型在数据集上的表现明显提高了很多,最好的BERT-ft[Linear Chain]比最佳baseline提升了10.1个百分点,达到了68.9。但是和人类的表现相比,这样的结果还是非常差的。因此,在溯因推理方面的研究还有很多工作要做。
αNLG
实验模型
-
O1−O2−OnlyO1−O2−Only —— 以组成两个观测值 O1O1 和 O2O2 的token为起始训练GPT2。
-
使用COMET生成ATOMIC格式(如果-那么)的知识 —— 包含常识知识的图,是一个以推理“如果-那么”的知识为主的知识库,它以事件作为节点,下列九大关系作为边:
ATOMIC是对ARTART 数据集中的叙事上下文进行推理所需的背景常识的来源。COMET是基于ATOMIC训练的专门实现常识知识图自动构建的Transformer,这里借助COMET生成基于事件的常识推理知识,然后再GPT2中集成了COMET生成的信息用于αNLG任务。集成方式分两种:
- COMeT-Txt+GPT-2(作为文本短语的方式集成)
在单词嵌入层嵌入输入标记之后,我们在通过Transformer架构的层之前,向串接的观察序列添加18个(对应于每个观察的九个关系)自然语言文本,由GPT2进行编码。
- COMeT-Emb+GPT2(作为嵌入的方式集成)
和上面那种方式一样,不过在观察序列前添加的是18个COMeT Embedding,这允许模型在处理COMeT嵌入时学习每个token的表示——有效地将背景常识知识集成到语言模型中。
评估
- 自动评估 —— BLEU、METEOR、ROUGE、CIDEr、BERT-Score
- 人工评估 —— 向众包人员展示成对的观察结果和一个生成的假设,要求他们标注该假设是否解释了给定的观察结果。最后一栏为对应的评估分数。人工编写的假设在96%的情况下是正确的,而我们最好的生成模型,即使有背景常识知识的增强,也只能达到45%——这表明αNLG生成任务对当前最优越的文本生成器来说尤其具有挑战性。
生成实例
1|5结论
文章提出了第一项研究,调查基于语言的溯因推理的可行性。概念化并引入溯因自然语言推理(αNLI)——一个关注叙事语境中溯因推理的新任务。该任务被表述为一个选择题回答问题。文章还介绍了溯因自然语言生成(αNLG)——一种新的任务,需要机器为给定的观察结果生成可信的假设。为了支持这些任务,创建并引入了一个新的挑战数据集ART,它由20k个常识性叙述和200k多个解释性假设组成。在实验中,基于最先进的NLI和语言模型建立了这一新任务的Baseline,其准确率为68.9%,与人类性能(91.4%)有相当大的差距。αNLG任务要困难得多——虽然人类可以写出96%的有效解释,但是当前表现最好模型只能达到45%。文章的分析让我们对深度预训练语言模型无法执行的推理类型有了新的见解——尽管预训练模型在NLI蕴涵的密切相关但不同的任务中表现出色,但是在应对基于 ARTART 数据集提出的溯因推理和溯因生成任务时,表现却差强人意,这为未来的研究指出了有趣的途径。作者希望ART将成为未来基于语言的溯因推理研究的一个具有挑战性的基准,并且αNLI和αNLG任务将鼓励在人工智能系统中实现复杂推理能力的表征学习。