基于跨语种预训练语言模型XLM-R的神经机器翻译方法

来源 :北京大学学报(自然科学版) | 被引量 : 0次 | 上传用户:fuqiang1986
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
探索将XLM-R跨语种预训练语言模型应用在神经机器翻译的源语言端、目标语言端和两端,提高机器翻译的质量.提出3种网络模型,分别在Transformer神经网络模型的编码器、解码器以及两端同时引入预训练的XLM-R多语种词语表示.在WMT英语-德语、IWSLT英语-葡萄牙语以及英语-越南语等翻译中的实验结果表明,对双语平行语料资源丰富的翻译任务,引入XLM-R可以很好地对源语言句子进行编码,从而提高翻译质量;对双语平行语料资源匮乏的翻译任务,引入XLM-R不仅可以很好地对源语言句子进行编码,还可以对源语言端和目标语言端的知识同时进行补充,提高翻译质量.
其他文献
为了对知识库(KBs)进行补全,提出一种新的基于路径的推理方法,使用注意力机制,将实体与其类型相结合,共同对路径中的实体进行表示,并使用注意力机制对每条路径预测的关系向量与给定关系的表示向量之差的绝对值进行汇总来计算模型的置信度.在基准数据集WN18RR和FB15k-237上的实验结果表明,与现有的基于路径的关系推理方法相比,所提方法具有更好的性能.