论文部分内容阅读
目的情绪识别是智能人机交互的重要环节。目前的研究常用语音、面部表情和脑电波(Electroencephalogram, EEG)等信号通过机器学习算法实现情绪识别。然而语音情绪识别只是外在的情绪状态感知,具有可伪装性;而EEG信号复杂度高且十分微弱。针对以上问题,本文探究了使用多源数据融合进行情绪识别的新方法。方法对语音和EEG信号分别在特征级别和算法设计上实现对语音和EEG信号的数据融合,使用SVM和多核SVM进行四类情绪的分类。对比单数据和多源数据融合的情绪识别精度。结果使用多核SVM对两类数据融合得到的分类精度高于使用特征融合方法,最高高出22.47%。结论使用多源异构数据能够提高情绪识别效果,多核分类器适用于异构数据的分类。以上研究结果促进了情绪识别在自然环境中的应用。