论文部分内容阅读
目的:为解决共情测量方式的低效、繁琐、受社会期许的干扰等问题,以机器学习领域的研究成果为基础,采用标准化视觉材料,收集被试知觉视觉材料的眼动数据,通过提取被试眼动的全局和局部眼动特征,利用公共的机器学习平台进行自动分类学习,从而形成机器自动判别共情能力水平的系统。研究方法:本文采取心理学实验与机器学习相结合的方法,首先通过SMI RED500遥测式红外线感应眼动仪收集166名在校大学生观看半投射共情图片时的眼动信息,并且收集好IRI-C人际反应指针量表,根据量表开发者的计分标准,获得被试的共情分数。然后提取出的被试眼动特征为自变量,将眼动的原始数据分别有坐标数据,瞳孔直径,眼动事件(仅使用眨眼时间)及其相应的时间序列。经过一系列的特征提取、筛选、降维等处理,以被试的IRI-C得分为因变量,采用留一法,运用已有的机器学习平台scikit-learn里的方法,包括线性回归Linear Regression、K-近邻KNN、随机森林Random Forest、支持向量机回归SVR对眼动特征进行提取与学习,实现自动预测个体共情能力。研究结果:本研究使用观看半投射图片获得的原始眼动特征为基础,以SVR获得了性能最高的预测系统。在166个样本上,采用留一法获得的共情预测分数与真实的IRI-C问卷中共情分数显著相关,且皮尔逊相关系数0.95。在IRI-C四个维度和总分上的预测误差在6.5%到10.5%之间。而随机森林和KNN虽然是多个决策树融合的集成模型,可以用于回归任务,且在情绪识别方面的广泛的应用,但本研究中对于共情分数的预测值与观察值之间的皮尔逊系数r=0.63~0.70。即结果显示不同的模型对于眼动数据的学习存在较大的差别,但是同时发现基于眼动数据采用机器学习预测共情分是具有可行性的。同时也表明眼动特征如时间序列动态指标、热点图等与共情能力可能存在关系。结论:基于眼动数据对共情能力进行预测有良好的效果准确度很高。对于共情的测量不再是全部依赖共情量表,可以尝试运用机器学习来构建一种更客观、准确、高效、真实的测量方式。