论文部分内容阅读
机器翻译评价与机器翻译是相辅相成的,机器翻译的发展决定了机译评价的进展,反之机译评价又促进机器翻译的发展。然而由于译文质量的人工评价价格不菲,评价过程非常耗时而且不可重用,因此人工机器翻译评价一直很难对机器翻译系统开发提供切实的帮助。找出一种有效、可行的机器翻译自动评价方法将对机器翻译的发展产生极大的推动作用。
本课题的研究目的就在于探索、实现机器翻译译文质量的自动评价,论文首先阐述了机译自动评价的概念原理,介绍分析了几种现有的评价方法,在此基础上提出新的自动评价方法RBLEU,希望通过本项目的研究,能够对机器翻译自动评价的深入发展起到积极的作用。
本文提出了一种新的评价方法RBLEU,采用了基于n元共现的思想并使用了调和平均数作为评价的主要指标。系统实现了BLEU和新方法RBLEU两种评价标准,针对三个商用机器翻译系统的译文质量进行了客观的自动评价。论文对实验结果进行了比较和分析,证明了该方法能够在译文质量方面对机器翻译系统做出比较客观的评价。
本实验中的20句汉语源文是从1998年863汉英机器翻译测试题库中抽样取得的。其参考译文分别是由英语水平优秀、良好和一般的,母语为汉语的大学生提供,存放在Access数据库中。应用程序采用了面向对象的思想设计和开发,使用了Java语言技术,利用了开放的集成开发环境Eclipse作为工具平台,使用了JFC实现应用程序的用户界面,使用JDBC实现了程序和Access数据库的通信。