论文部分内容阅读
阅读理解自然语言文本是人类重要的语言处理能力,让智能机器具有与人类类似的阅读理解能力是人工智能研究者长期的梦想之一。具有阅读理解能力的机器可以极大地缓解人们日益增多的文本信息处理负担,具有广阔的应用前景。作为发展高级阅读理解能力的第一步,研究人员在二十多年前就提出了 机器阅读理解(Machine Reading Comprehension,MRC)任务,即给定无结构自然语言文本,机器能基于此回答与文本相关的自然语言问题。二十多年来,MRC研究取得了长足的进步,尤其是近年来,大规模预训练语言模型以其强大的从海量语料中进行学习的能力极大地推动了自然语言处理的研究进展,在MRC任务上也取得了不少重要的成果。但是,由于MRC任务本身的复杂性,现有研究仍存在一些问题亟待解决。首先,从模型的结构来看,现有模型存在对内部知识利用不足、缺乏对外部知识有效利用的问题。例如,具有多层结构的预训练语言模型被认为在不同层蕴含了不同类型的语言知识,但是,目前的阅读理解模型在利用不同层次知识方面还缺乏有效的结构;从模型的训练来看,现有模型存在着依赖大规模领域内数据集、跨领域迁移能力差以及答案提供的监督信号不充分等问题。例如,当领域内阅读理解数据资源稀缺时,经典监督学习方法通常表现不好。本文在综述相关研究工作的基础上,针对上述问题展开了一系列的研究,主要内容和成果如下:提出了一种能对预训练语言模型多层信息进行自适应选择和决策的阅读理解模型。通过在预训练语言模型的不同层构建决策模块,模型能够自适应地选择不同层次的编码表示来回答不同类型的阅读理解问题;为避免在模型微调过程中不同层次的信息多样性被多个相似的监督信号损坏,本文提出了一种学习率衰减方法来减弱监督信号对低层参数的影响。在公开数据集上的实验结果表明,本文提出的模型在性能和推理速度上均优于基线模型。进一步对不同层所正确回答的问题进行定量和定性分析发现,本文提出的模型可以较好地为需要不同类型信息的问题选择包含该类信息的层进行回答。提出了一种能显式利用外部知识的算术阅读理解模型。将外部数字引入算术阅读理解模型中,并提出一种外部数字的动态表示方法,以在生成算术表达式时,能正确选择外部数字;同时,本文还提出了一种基于数字关系的注意力机制,通过比较数字之间的二元关系,来辅助模型更准确地选择算术表达式中的操作数和操作符。在公开数据集上的实验结果表明,本文所提出的外部数字动态表示方法和基于数字关系的注意力机制能帮助模型生成更准确的算术表达式,取得更好的性能。提出了一种基于多源知识学习的跨领域阅读理解模型。首先,提出了一种多任务变换器网络,可以同时在领域外阅读理解数据集和领域内自监督数据集上学习任务知识和领域知识,并降低任务噪音;其次,提出了一种“直接领域自适应”方法和一种“间接领域自适应”方法来降低领域噪音。在公开数据集上的实验结果表明,本文所提出的方法能提升模型在低数据资源阅读理解任务上的性能,只用一半的数据就能达到其它模型在全量数据上训练的结果。提出了一种基于辅助任务的阅读理解模型。模型利用证据抽取任务与片段选择任务之间的相似性,将片段选择任务作为辅助任务,并设计了一种可导的软提取方法,来帮助模型在解决“是/否”类任务时,能同时关注篇章中与问题相关的片段,过滤掉无关片段。在公开数据集上的实验结果表明,本研究提出的模型不仅能提升“是/否”类任务上的性能,还能对答案给出解释信息。