基于BERT的意图识别与语义槽抽取算法研究

来源 :杭州电子科技大学 | 被引量 : 0次 | 上传用户:cox_7261
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
在人机对话系统中包括自然语言理解、对话管理和自然语言生成三个关键模块,其中自然语言理解模块包含意图识别和语义槽抽取两大任务。2018年Google提出了基于双向Transformer的预训练语言模型BERT,在很多自然语言处理的下游任务中取得了最先进的效果。由此本文主要基于BERT的基础上研究如何提高自然语言理解模块的识别准确率。据此本文进行了以下几项工作:(1)首先基于BERT提出了BERT-Bi LSTM-CRF语义槽抽取算法。相对于传统的Bi LSTM-CRF信息抽取模型基于BERT的语义槽抽取模型具有更强的语义编码能力,对于小数据集有更好的泛化性能。分别在ATIS和SNIPS数据集上进行了语义槽抽取实验,由于BERT所采用的双向Transformer特征提取器具有更强语义编码能力,并且由于其迁移学习特性,更适用于小样本等优点,因此相对于Bi LSTM、Bi LSTM-CRF等语义槽抽取模型,BERT表现出更高的召回率和精确度,在ATIS和SNIPS数据集上F1值分别达到了95.83和92.40,相对于Bi LSTM-CRF模型F1值提高了2.16、1.97。(2)对传统模型中意图识别与语义槽抽取任务单独训练,忽略了意图类别和语义槽之间相关性问题,通过最小化两个子任务的损失来建立统一的联合损失函数,实现了多任务融合学习。为了进一步加强二者在多任务学习中的相关性融合,在损失函数相加的基础上提出了基于意图与语义槽之间注意力机制的模型,并分别对比了单任务、多任务以及多任务下引入注意力机制三种模型性能。实验结果表明,多任务融合训练在ATIS和SNIPS数据集上#值均有所提升,分别为96.12、93.84,提升了0.29、1.44。引入了注意力机制后,#值相比较单纯的多任务训练的方式提升了0.58、1.86,提升幅度明显大于仅仅将单任务改进为多任务训练,说明了注意力机制对模型的促进效果更加明显,能更加有效提升模型意图识别和语义槽抽取任务的准确性。(3)在基于BERT的自然语言理解算法研究基础上,本文设计并实现了一个面向航班预订场景的人机对话系统,支持主动提问、信息确认等多轮会话功能。并分别从系统界面和API接口两个方面做了详细的功能测试,系统可以正常稳定运行,并完成用户预订航班任务。
其他文献
优惠原产地规则是中国-东盟自贸协定的重要组成部分,在确定贸易产品“法定国籍”的同时,其严苛程度不仅影响国家间的贸易流向与投资决策,还影响着自贸协定缔约方的福利效应。
<正> 食管裂孔疝通常依靠X线诊断。我们根据文献报告结合临床实践提出内镜下食管裂孔疝诊断标准。依据标准,我们从1990年1月至1995年12月共诊断食管裂孔疝66例,占同期胃镜的3
利用问卷调查法,以某省属重点高校大学生为样本,对大学的“水课”现状及成因进行调研;通过分析发现,“水课”的形成主要与学生对专业兴趣程度、学习努力程度、教师授课方式以
立场标记是作者和说话人表达个人观点及态度立场的特殊语言现象,在话语建构和人际交往中起着十分重要的作用。通过语料调查发现,“感觉”“觉得”“认为”“以为”“估计”等
随着我国公路交通运输网的不断发展和完善、行车密度、大型载重车辆的大幅增长,许多公路桥梁在设计寿命周期内劣化严重,桥梁可靠性要求严重不足。早年较低的建造标准和维修养
每一种思想的形成都离不开特定的时代背景,对李大钊思想的考察也要结合他的成长过程,分析其思想的演变。李大钊成长于内忧外患的时局,西学东渐之趋势中,先后受封建主义、资本
本文介绍BASIC语言在PC—1500微型机上实现的Y0/Y0/△—12—11三卷、Y/△—11双卷变压器差动保护整定计算程序及其说明。原则上该程序也可以在其它具有BASIC语言功能的计算机
为提高一台330 MW贫煤机组的锅炉效率和大幅度降低NOx排放浓度,采用贫煤锅炉改烧烟煤综合技术对该锅炉进行改造,改造内容主要包括制粉系统、燃烧设备、省煤器、低压省煤器、
愈加严格的环境法规以及更广泛的社会监督让更多的企业开始正视自身经营活动对生态环境的影响。在企业环境污染问题依然严峻的当下,唯有主动实施以绿色为导向的生态创新才能
本刊已加入《中国学术期刊综合评价数据库》、《中国学术期刊(光盘版)》、《万方数据——数字化期刊群》、《中国人文社科引文数据库》、《中文科技期刊数据库》等,并许可以