论文部分内容阅读
面部表情识别对人机交互有着十分重要的影响,是计算机视觉领域的一个热门方向,近年来得到了广泛的关注和研究。经典的基于静态表情图像的识别算法多是基于运动单元(AU)识别或是通过对图像提取底层纹理特征结合分类器的识别方法。这些方法在经典的实验室受控数据集,例如CK/CK+,JAFFE等数据库中有优秀的表现,但是对于真实非受控条件的表情图像,由于图像复杂、光照角度不统一以及人物自身差异等因素导致效果不够理想。考虑到人类的面部表情是面部肌肉运动和组合的结果,本文将面部的局部区域与属性学习相结合,利用局部区域的底层特征在参考数据集中不同类别对的对比,抽取大量的中级特征,这些特征相比于纹理特征,更具有语义特性,也更利于表情类别的鉴别。再利用特征筛选的算法筛选中级特征得到最具有表情区分度的特征,不仅能够降低最终分类器的特征维度,避免在小数据集中的过拟合,而且能够降低中级特征的冗余,提高特征的区分度,对于真实世界的表情识别有着非常好的效果。本文通过对传统表情识别算法和现状的分析,结合真实世界表情与经典表情直接的差异,引入了基于局部区域的属性特征的自动提取算法,并在此基础上增加特征筛选算法进一步提高特征的语义和区分度。并在经典数据库(CK)和真实环境表情数据库(SFEW、RAF-DB)中,通过大量实验,不仅验证了局部属性特征对于真实表情识别问题的相对于主流算法有良好效果,而且说明了这种中级特征对于不同数据集的鲁棒性强,相比于人为定义的AU单元更适用于真实环境表情识别。