论文部分内容阅读
全国英语等级考试(PETS)是一项标准参照考试。它面向全国所有英语学习者,没有年龄、职业、学历等限制。由于该考试系统是一个包括了口语的交际测试,因而其效度很高,越来越受到欢迎。但同其他口语考试一样,其主观评分信度有时不是很理想。
为了解决主观评分带来的问题和更好的解释分数的意义,同时也为了给下一步自动评分研究打基础,我们进行了客观评分的尝试。在回顾了影响评分因素和当前主要几种口语评分方法后,我们提出了一种口语客观评分的方法。经过对其进行理论和操作意义上的定义,我们设计并开展了一项试验。这是一项基于语音语料库的实证研究。我们从PETS三级口语测试分析性评分表中共提炼出25个量化了的指标。然后将从30个应试者的语音和转写的文本中提炼的数据输入到SPSS中进行逐步线性回归分析,得出相应的4个模型。其中模型4是最佳模型,而模型3则是我们想要得到的客观评分预测模型。它们都能解释口语成绩的大部分方差变异。最后,我们将同一试验的另外14个样本的数据用来检验两个模型的预测能力,结果证明他们都有较好的效度。依次进入模型的因素为:正确的类符、流利度、正确的T-Unit和语音。让我们感到惊奇的是正确的类符最先进入模型,其预测能力最强;让人费解的是正确的T-Unit数在模型中的系数却是负值。尽管在其他试验中也有过类似发现,但人们还没能对其进行很好的解释。
该项实证研究的意义在于它证明了口试客观评分的可能性;它能让人们理解口试分数的含义;而且该试验所建立的模型将有助于下一步的口试自动评分研究的开展。