论文部分内容阅读
一个人的情绪状态通常会从他的动作姿态、面部表情以及语音语义上得到体现,其中面部表情是情绪表达的最有力途径,并且非接触式的面部表情识别对于实现自然、和谐的人机交互至关重要。截止到目前,大多数研究都是将重点放在如何尽可能地提高识别精度上,而忽略了算法的时间效率,表情识别的输出都是离散的类别标签,绝大多数系统和方法都没有把表情强度这一信息考虑进来。为了更好地将面部表情识别应用到现实场景当中,本文基于表情视频序列展开研究。本文将一种用于行为识别的时空局部描述子HOG3D应用到基于视频序列的动态表情识别中。虽然HOG3D特征提取到了丰富的动态表情信息,但是特征维度也高达数千维,为了解决特征维度过高的问题本文提出了一种新的特征选择方法PCA-Relief F进行特征降维,该特征选择算法不仅有效降低了特征维度,而且根据特征区分能力的大小,选出了更有区分能力的特征,该算法高效地实现了基于离线视频序列的表情识别。为了最终实现对表情视频序列的实时精细化识别,本文基于视频序列中的单帧表情图像进行识别,在预处理阶段,采用Viola-Jones检测算法检测初始帧,并引入基于时空上下文的目标追踪算法用于人眼追踪,实现了视频图像序列的实时预处理。对于单帧图像的特征提取,从特征的识别效果以及实时性的角度考虑,本文最终选择了HOG特征描述子。考虑到不同面部区域所携带的表情信息以及它们分类贡献的不同,采用一种子块自适应加权算法对不同面部区域的表情特征进行了加权融合,实验结果表明,自适应加权后的识别精度较未加权之前有所提高,最终达到了95.71%的识别率。并且该算法的处理速度为26.8ms/f。在此基础上为了实现精细化的表情识别,本文基于支持向量机提出了SVM概率模型,该模型不仅能够输出离散的类别标签,而且能够输出相应类别的隶属度。SVM概率模型中表示每一个待测样本与超平面之间的距离的变量刚好能够表征情绪强度的变化,不仅能够分析单一情绪的表情强度,而且能够区分同类表情下的强弱变化。