论文部分内容阅读
随着信息化的普及,人们的工作和学习已经离不开网络信息。同时,随着网络信息规模的不断扩大,如何高效、准确地获取相关的中文信息逐渐成为人们关注的问题。中文分词是中文信息处理的重要步骤,中文分词系统的分词精度直接影响着中文信息理解与处理的效率。因此,本文展开这一方面的研究具有重要的意义。首先,本文阐述了中文分词的研究背景与意义。分析了目前常用的三种中文分词方法的基本原理及各自的优缺点,并讨论了中文分词的两个技术难点:歧义识别和未登录词识别。对歧义产生的原因、分类和目前主流的歧义抽取及消除方法等作了详细的阐述,同时详细阐释了未登录词的分类和主要的识别方法。并对本文使用的几个统计模型进行了简单的介绍。其次,本文对基于层叠隐马分词模型和基于扩充转移网络(Augmented Transfer Network, ATN)的中文分词技术进行深入研究,提出将隐马模型和ATN句法分析相结合的中文分词框架,并在此基础上实现了中文分词系统原型。具体地,该系统使用基于统计的N-最短路径初分模型和ATN句法分析相结合的方法进行歧义切分;使用简单的规则识别数词和时间词;使用基于角色的未登录词识别方法识别出汉语人名和地名。继而将识别得到的未登录词和其它词一起参与竞争,建立基于类的隐马分词模型以获得全局最优的分词序列,并对该序列进行词性标注。最后,本文对该系统做了三个方面的分词实验。本文对搜集到的100句具有歧义现象的语料进行歧义切分对比实验,该系统能够正确分析其中的83句,而国内某分词系统能够正确分析其中的75句;随机选取六个不同领域的测试语料各一篇进行了开放测试;选取1998年《人民日报》的一段语料作为测试语料做对比实验,并将切分结果与国内某分词系统切分结果进行对比分析。由实验测试结果可知,本文的歧义识别效果好于国内某分词系统。通过任意选择六个领域的测试语料对本文进行测试,分词准确率平均值达到94.28%,分词召回率平均值达到96.25%,分词切分F-指数平均值达到95.25%。对比实验结果表明,本文分词召回率略高于国内某分词系统,总体分词准确率与国内某分词系统基本一致。