ACL 2019论文| 揭秘认知图谱!从多跳阅读理解问答开始

“机器的阅读理解与问答”一直以来被认为是“自然语言理解(NLU)”的核心问题之一,随着BERT等模型的兴起,单段落的简单阅读理解任务取得了重大突破;研究者将目光转向更能体现机器智能的“多跳”“复杂”情形。

本篇论文介绍了基于认知中“双过程理论(dual process theory)”的CogQA模型,文章提出一种新颖的迭代框架:算法模拟认知学中人类的两个认知系统,并维护一张认知图谱(Cognitive Graph),系统一在文本中抽取与问题相关的实体名称并扩展节点和汇总语义向量,系统二利用图神经网络在认知图谱上进行推理计算。文章在HotpotQA全维基百科数据集上持续占据第一近三个月之久,直到文章在被ACL高分接收后公开。

假设你手边有一个维基百科的搜索引擎,可以用来获取实体对应的文本段落,那么如何来回答下面这个复杂的问题呢?

“谁是某部在2003年取景于洛杉矶Quality cafe的电影的导演?”

很自然地,我们将会从例如Quality cafe这样的“相关实体”入手,通过维基百科查询相关介绍,并在其中讲到好莱坞电影的时候迅速定位到“Old School”“Gone in 60 Seconds”这两部电影,通过继续查询两部电影相关的介绍,我们找到他们的导演。最后一步是判断到底是哪位导演,这需要我们自己分析句子的语意和限定词,在了解到电影是2003年之后,我们可以做出最后判断——Todd Phillips是我们想要的答案。

事实上,“快速将注意力定位到相关实体”和“分析句子语意进行推断”是两种不同的思维过程。在认知学里,著名的“双过程理论(dual process theory)”[1]认为,人的认知分为两个系统,系统一(System 1)是基于直觉的、无知觉的思考系统,其运作依赖于经验和关联;而系统二(System 2)则是人类特有的逻辑推理能力,此系统利用工作记忆(working memory)中的知识进行慢速但是可靠的逻辑推理,系统二是显式的,需要意识控制的,是人类高级智能的体现。

01

引例

如果说上面的说法过于抽象, 我们来看下面的小例子[2]:

这里有四张卡片,每张一面是数字,另一面是颜色。这里有一个命题:

“如果一张卡片一面是棕色,它的反面是一定是偶数(例如2,4,6,8,10)”我们想判断这个命题的对错,需要翻动哪两张卡片?希望你能快速回答。

如果你的答案(像大多数人那样)是第二和第四张卡片,我们先不评价,再看下面的问题。

这里有四张卡片,每张一面是一个人的年龄,另一面是他在喝的饮料。这里有一个规定:

“如果一个人要喝酒,那么他必须要年满18岁”我们想判断这个规定是否被遵守,需要翻动哪两张卡片?希望你能快速回答。

我想你的答案(像大多数人那样)可能是第一和第四张卡片。但是,如果我们来对比这两个问题,会发现如果我们将啤酒和棕色对应,偶数和大于18岁对应,这两个问题从逻辑上完全相同,但是我们快速思考(系统一)的时候却容易得出了完全不同的结果。但是当我们将问题抽象化进行深入思考(系统二),则能发其中的相同之处。这是因为系统一往往依赖于经验,第一个问题会直观联系到偶数,第二个问题则会联系到日常生活中对未成年人禁令的各项检查。因此,仅仅依靠系统一是不够的。

02

多跳阅读理解的挑战

自从BERT[3]横空出世,单文本阅读理解问答的基准数据集SQuAD很快超过人类水平,但是同时,大家也在反思这些模型是否真的能够做到阅读“理解”。在2018年Percy Liang等人的文章中,他们展现了一个有趣的例子:

原文为:In January 1880, two of Tesla's uncles put together enough money to help him leave Gospić for Prague where he was to study.”

问题为:What city did Tesla move to in 1880?

大多数模型都能轻松回答对“Prague”。然而,一旦我们在原文后面增加一句“Tadakatsumoved to the city of Chicago in 1881.”则这些模型将会以很高的置信度回答“Chicago”——这仅仅是由于这句的形式与问题特别像,即使关键的信息都对不上。

这很像我们刚才举的卡片的例子(Wason Selection Test),也暗示了之前的基于深度学习的NLP模型,主要类似于认知中的系统一,我们如果要进一步进行推理,就必须考虑系统二。

另外,可解释性不足也是之前多层黑盒模型饱受诟病的弊端之一。这些模型往往只需要输入问题和文本,然后输入答案在文本中的位置;在多跳阅读理解中,每一跳都是有原因的,如果不能给出合理答案解释,则无法证明真的“理解”了文本。

问答系统很重要的一个问题是规模化。当语料不多时,面向单段阅读理解的NLP模型都可以直接处理但是真正的问答系统势必需要大规模语料并从中寻找答案。在陈丹琦等人的DrQA系统中使用的一个常见的权衡的方法是:

先根据问题在语料(维基百科)中检索出少量相关段落,再在这些段落中进行NLP的处理。

CogQA文章认为,这样的方法在多跳问答中存在“短视检索”的问题,即后几跳的文本和问题的相关性很低,很难被直接检索到,导致了效果不佳。

03

认知图谱问答(CogQA)框架

在该文章提出一种新颖的迭代框架:算法使用两个系统来维护一张认知图谱(Cognitive Graph),系统一在文本中抽取与问题相关的实体名称并扩展节点和汇总语义向量,系统二利用图神经网络在认知图谱上进行推理计算。

正如之前提到的,人类的系统一是无知觉(unconscious),CogQA中的系统一也是流行的NLP黑盒模型,例如BERT。在文章的实现中,系统一的输入分为三部分:

■ 问题本身

■ 从前面段落中找到的“线索(clues)”

■ 关于某个实体x(例如x=上文中的电影《old school》)的维基百科文档

系统一的目标是抽取文档中的“下一跳实体名称(hop span)”和“答案候选(ans span)”。比如上文例子中,从“quality cafe”的段落中抽取电影“old school”和“Gone in 60 seconds”作为下一跳的实体名称,在“old school”的段落中抽取其导演“Todd Phillips”作为答案候选之一。这些抽取的到的实体和答案候选将作为节点添加到认知图谱中。此外,系统一还将计算当前实体 x 的语意向量,这将在系统二中用作关系推理的初始值。

下图展示了系统一(BERT实现)的结构:

文章还有很多值得注意的细节,比如之所以将“下一跳实体名称”和“答案候选”分开,是因为前者更多关注语意相关性而后者则需要匹配疑问词;“下一跳实体名称”和“答案候选”是通过预测每个位置是开始或者结束的概率来确定的,这里与BERT原文做法相符;第0个位置的输出被用来产生一个阈值,判断段落内是否有有意义的“下一跳实体名称”或者“答案候选”……详情见论文。

接下来,每一个抽取出的“下一跳实体名称”或“答案候选”将在认知图谱中建立一个新的点,并进行下一步迭代。

同时系统二在认知图谱上进行推理计算,文中使用图神经网络(GNN)实现的隐式推理计算——每一步迭代,前续节点将变换过的信息传递(Graph MessagePassing)给下一跳节点,并更新目前的隐表示(Hidden Representation)。最终所有的“答案候选”点的隐表示将通过一个带有softmax函数的全连接网络来判断哪个是最终答案。

在认知图谱扩展过程中,如果某被访问节点出现新的父节点(环状结构或汇集状结构),表明此点获得新的线索信息(clues),需要重新扩展计算。最终算法流程借助前沿点(frontier nodes)队列形式实现,具体描述如下:

04

实验结果

文章使用了CMU、Stanford和Montréal大学共同提出的HotpotQA数据集[4],语料范围是全维基百科。HotpotQA的每个问题都涉及多个文本,并且不仅要求模型输出答案,而且要输出支持信息所在的句子,只有当答案和支持句都判断正确才被认为是正确的。CogQA显著超过了之前的方法和同时期的其他模型:

值得一提的是,由于作者发现之前baseline的检索部分方法有一定缺陷,为了排除检索部分的影响,还优化了其检索效果再比较(Yang et al.(2018)-IR)。

如果将问题按照提问类型分类,CogQA的效果随着必需跳数的增加而变好:

除了效果的提升,案例分析中的认知图谱也表明了其可解释性方面的优越性:

上图展现了几个问答中的认知图谱的实例。第一个树形图中,回答问题的关键在于判断Ken Pruitt所在的组织是“Senate”(参议院) 还是“House of Representatives”(众议院),模型通过判断“upper house”(上院,在美国是参议院的别称)和“Senate”的语意相似性做出回答;第二个是有向无环图,多条推理路径可以增强判断;第三个是模型得出“错误答案”的例子,数据集的标准答案是“Ten Walls”可是CogQA给出的是“Marijus Adomaitis”,但是如果检查认知图谱,会发现Ten Walls不过是Marijus Adomaitis的艺名,模型给出了一个更加准确的答案,这种可解释性带来的好处是传统黑盒模型不具有的。

05

图结构、认知与自然语言处理

在图灵奖得主Judea Pearl的新作《The Book of Why》中,他强调了图结构在认知和智能中的重要地位——智能不能拘泥于统计,更应该注重因果与逻辑链条,而后者则与图结构密不可分。认知图谱(Cognitive Graph)则是图结构在问答问题上的一次有意义的尝试,BERT、XLNet这样的预训练模型是否是认知理论中“系统一”的最终答案?图结构到底应该怎样服务于“系统二”的推理呢,比如如果能够对超长的文本进行注意力(attention)机制,那么象征着因果和逻辑的结构信息究竟是否必要?

自然语言处理正处在一个蓬勃发展的时期,希望这篇文章可以给大家更多的思考。

Paper : https://arxiv.org/abs/1905.05460

Codes : https://github.com/THUDM/CogQA

参考文献

[1] Evans, Jonathan St BT, and Keith E. Stanovich. "Dual-process theories of higher cognition: Advancing the debate." Perspectives on psychological science 8.3 (2013): 223-241.

[2] Cosmides, L. (1989). The logic of social exchange: Has natural selection shaped how humans reason? Studies with the Wason selection task. Cognition, 31(3), 187-276.

[3] Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805.

[4] Yang, Z., Qi, P., Zhang, S., Bengio, Y., Cohen, W. W., Salakhutdinov, R., & Manning, C. D. (2018). Hotpotqa: A dataset for diverse, explainable multi-hop question answering. arXiv preprint arXiv:1809.09600.

分享干货

(0)

相关推荐

  • 基于微慕学习系统的深度学习认知模型建构

    图1 微慕深度学习认知模型

  • 清华大学李涓子:AI系统如何实现认知推理?

    认知是人获取和应用知识的过程,知识图谱是人对客观世界认知的表示.人工智能系统如何实现知识的表示和推理? 在2021年世界人工智能大会上,由AI TIME组织的"图神经网络与认知智能前沿技术论 ...

  • 论文推荐|面向遥感大数据的地学知识图谱构想

    引用格式: 王志华,杨晓梅,周成虎.面向遥感大数据的地学知识图谱构想[J].地球信息科学学报,2021,23(1):16-28. [ Wang Z H, Yang X M,Zhou C H. Geog ...

  • 知识图谱应用研究

    同济大学 zhou xiaohan对知识图谱的应用情况进行了系统性研究,发表在CCEAI2020的会议上,这里是个简单的翻译. 摘要: 知识图谱,将信息表示为语义图,已经引起了工业界和学术界的广泛关注 ...

  • LW

    论文的主要工作以基于知识图谱的专利推荐为主题,从研究背景和意义.国内外研究现状.用户需求分析.系统概要设计.核心算法设计.系统详细设计以及系统实现与测试等几个方面对基于知识图谱的专利推荐系统进行详细描 ...

  • CCCF动态 | 大数据知识工程研究进展与发展趋势

    本文从基础理论与关键技术等方面介绍了国内外大数据知识工程领域近些年的发展状况,从知识类型.知识范围.处理技术与应用范围等方面总结了大数据知识工程的总体发展趋势. 引言 知识工程(Knowledge E ...

  • 问答知识图谱还缺少什么信息?

    作者信息 Elesdspline 目前从事NLP与知识图谱相关工作. 导读 这两天看到了一篇文章,和我最近的一些思考契合,分享给大家. 知识图谱的数据一般来自于结构化数据或者采用信息抽取等技术挖掘非结 ...

  • 【知识图谱】知识推理,知识图谱里最“人工智能”的一段

    互联网时代,人类在与自然和社会的交互中生产了异常庞大的数据,这些数据中包含了大量描述自然界和人类社会客观规律有用信息.如何将这些信息有效组织起来,进行结构化的存储,就是知识图谱的内容. 知识图谱的难点 ...

  • ACL 2019论文| 为知识图谱添加注意力机制

    注意力机制(Attention)是近些年来提出的一种改进神经网络的方法,在图像识别.自然语言处理和图网络表示等领域都取得了很好的效果,可以说注意力机制的加入极大地丰富了神经网络的表示能力. 论文原文: ...

  • NAACL 2019 论文 | 基于胶囊网络的知识图谱表示学习

    知识图谱表示学习(Knowledge Graph Embedding)是将知识图谱中的实体和关系等表示为低维的向量空间中的向量,这些向量蕴含了实体和关系的复杂信息,有利于计算机进行计算和推理. 论文背 ...

  • 发布 | 大脑中文词汇理解(语义认知图谱)数据集,探索大脑语言理解机理

    CASIA 解锁更多智能之美 [摘要]近日,自动化所团队构造了一个大脑中文词汇理解(语义认知图谱)数据集,该数据集有望为后续深入研究大脑语言理解机理提供数据基础. 语言认知是人类智能最显著的体现.大脑 ...

  • 从 ACL 2019 看 NLP 未来发展趋势

    随着自然语言处理领域的顶级盛会 ACL 2019 落幕,亚马逊 Alexa AI 的机器学习科学家 Mihail Eric 对本次会议进行了一次比较全面的回顾.从奇闻轶事到学术前沿,本文一网打尽,自然 ...

  • 2021私域流量认知图谱,7个方面搭建完整体系

    近年来,很多人都发现,客户的消费方式不知不觉发生改变,以前是在逛街时顺便"种草",看到哪家店顺眼就走进去,而现在多半都是先上网搜索,看到满意的再前往线下门店. 意识到这一点,很多的 ...

  • 《自然》最新论文揭秘压力如何影响毛发生长

    中新网北京4月1日电 (记者 孙自法)国际著名学术期刊<自然>最新发表一篇干细胞研究论文指出,应激激素会通过调控毛囊干细胞的方式抑制毛发生长,即压力或导致头秃.该研究阐明了小鼠身上这一现象 ...

  • 论文揭秘本田i-MMD电驱系统

    前不久小星介绍了本田旗下三电机混动技术在讴歌超跑NSX和SUV车型 MDX的应用.今天就来聊聊本田雅阁混动版所使用的这套i-MMD双电机电驱系统的技术细节. i-MMD的全称是Intelligent ...

  • 2021年「大私域」应该怎么做 发布《私域认知图谱2.0》|盘点2020

    说在面前的话: 去年写完一个盘点:<11000字长文详解「大"私域"」思考,涉及微信.企业微信.抖音以及认知层>颇受大家喜欢,以至于今年再怎么忙也在抽时间弄盘点,今年就 ...

  • 认知图谱:第三代AI的“大”机遇

    近年来,人工智能(AI)依靠深度学习.计算机视觉.自然语言处理等技术突破与落地应用,不断颠覆着人类的既有认知--AlphaGo 通过自我强化学习击败了人类的顶尖围棋选手:而近日 Alphafold 更 ...