论文部分内容阅读
深度学习模型依靠文本单一的词特征、位置特征在文本关系抽取任务中取得了不错的效果.但以往研究未能充分理解句子语义,数据稀疏和噪声传播问题对分类模型的影响依旧存在.随着注意力机制和预训练语言模型的研究不断深入,BERT(bidirectional encoder representations from transformers)预训练模型为自然语言处理任务提供了更好的词句表示.因此,该文提出结合BERT预训练语言模型获得更具语义表现力的特征表示,同时使用依存句法分析提取出最短依存路径作为额外信息输入分类模型,降低了噪声词汇对分类模型的影响.该算法在中文人物关系抽取数据集和SemEval2010 Task 8语料集上进行对比实验,最终实验效果F值可达到0.865.