论文部分内容阅读
目前人脸表情识别技术发展的相当成熟,可应用于很多领域,如机器人制造,汽车,安全等。人们研究出许多表情识别算法,而且取得了不错的识别结果,但这些算法只是针对特定的人脸数据库,所以并不具有普适性。现阶段的算法的准确性、鲁棒性等方面尚不能满足实际需求,而且单一信息源表情识别率低。如果将多个信息综合分析,即信息的融合,可以得到意想不到的结果,比单一信息源的识别率要高。现代信息处理领域,信息融合技术已经是很重要的解决问题的方法,而且发展了证据理论、模糊理论和神经网络等智能信息融合方法。本文将信息融合技术应用到人脸表情识别上,提取人脸表情图像的眼睛,嘴巴局部特征和人脸全局特征,然后融合这些全局特征和局部特征的识别结果,会得到更好的识别率。本文主要工作包括以下几方面内容。在人脸图像前期处理的过程中,首先是眼睛位置的确定。因为所用数据库里图像都是单人灰度图像,背景简单,所以本文采用灰度积分投影方法,得到眼睛和眉毛区域,对这个区域再次利用水平积分投影准确确定眼睛的位置。然后利用二值化处理并在眼睛定位的基础上定位出嘴巴区域。这样对每一幅人脸表情图像可以剪切得到人脸图像,眼睛图像,嘴巴图像。最后,对这些图像进行尺寸大小归一化,光照均衡等前期处理。在人脸表情数据库里存在样本较少的问题,样本数目太少对识别率有很大影响,甚至无法识别,故需扩充样本数据库。Yale数据库里的表情图像仅仅有15个人的各6种表情图像,共计90幅表情图像,样本数太少,所以采用最简单的加权平均方法,即选择不同人的同一表情进行加权平均,则大大扩充了样本的个数,解决了Yale人脸数据库的表情样本较少的问题。在人脸特征提取方面,由于Gabor小波变换具有受光照影响比较小而且对位置敏感等优点,所以选择二维Gabor小波变换提取表情特征,构造5个尺度和8个方向上的2DGabor小波。图像与2DGabor小波卷积得到滤波后的图像,然后对滤波后图像计算其均值和方差作为特征值。该方法简单方便有效的提取特征信息,而且避免了高维特征造成的灾难,提高了识别速率。在人脸整体与局部特征识别结果的融合方面,在日本女性和扩充的Yale人脸数据库上分别使用DST证据理论和DSmT证据理论对识别结果进行决策融合。通过在这两个人脸表情数据库上的实验结果表明:DST证据理论和DSmT证据理论在组合和测量不确定和不精确信息方面有很大的优势,可以表达有无知引起的不确定性,而且DSmT证据理论比DST证据理论能更好处理高冲突信息的组合问题。