论文部分内容阅读
语言作为人工智能皇冠上的“明珠”,对自然语言处理的研究也越来越重要。用自然语言与计算机进行通信,这是人们长期所追求的,因为它有明显的实际意义和重要的理论意义。对话评估是人机对话系统的一种评测,其关键在于自然语言理解(Natural Language Understanding,NLU),而文本蕴涵(Textual Entailment,TE)的目的就是识别两个文本之间的潜在逻辑推理关系。文本蕴涵和对话评估虽然取得了不错的成果,但仍然存在一些问题,比如:文本蕴涵中只考虑文本之间的交互信息,不太关注文本自身的上下文逻辑关系,并且计算机不能利用目前的通用知识来处理特定文本间的蕴涵关系。对话评估中句子表征前后语句的逻辑推理关系考虑不充分,有时候导致答非所问的对话得到好的评分。针对以上的问题,本文提出了结合文本蕴涵方法的对话评估方法,具体工作内容如下。本文提出了基于多层注意力机制的文本蕴涵识别方法。目前存在的主流Siamese模型和ESIM模型无法利用文本自身的全局信息进行辅助推理。针对这一问题,本文提出多层注意力机制获得文本的全局信息和文本间的交互信息,使文本蕴涵识别的准确率比Siamese模型提高了4.90%,比ESIM模型提高了1.66%。目前存在的模型无法利用通用知识,且数据集规模太小,本文对预训练模型进行微调,引入通用知识,并且预训练模型的数据集规模足够大。通过实验验证,基于预训练模型的文本蕴涵识别方法比基于多层注意力机制的文本蕴涵方法提高了6.07%。实验结果表明,预训练模型使得文本蕴涵识别任务的准确率有很大提升。本文引入文本蕴涵方法在对话评估中,目前的对话评估系统对句子都只是通过BiLSTM获取句子特征,而没有考虑对话上下文的之间的逻辑推理关系。为了缓解这一问题,本文利用文本蕴涵方法的推理优势,加强对话上下文之间的逻辑联系。最后实验结果表明,本文提出的基于文本蕴涵的对话评估方法优于目前基于多层BiLSTM模型的对话评估方法,提高了对话的完整度(A-score)、对话的满意度(S-score)和对话的有效性(E-score)等指标的评分,实验的具体示例表明本文设计的模型效果较好,能够多次回顾对话历史,充分的利用上下文的逻辑推理关系。