论文部分内容阅读
近年来,面部表情识别在人机交互、安全、医疗保健等领域应用广泛。目前主要通过提取几何特征和面部纹理特征并利用分类器进行表情识别。而几何特征的提取关键在于面部特征点标注的准确性。目前的自动特征点定位算法的精度仍有待提高。此外,自发和人为表情区分和识别研究大都局限于某类表情,如高兴或者痛苦。没有考虑性别和表情类别对自发和人为表情区分识别的影响。针对此,本文提出主动特征点标注算法;全面分析不同表情类别和性别下自发和人为表情的区别;并将表情类别和性别信息作为特权信息,提出基于特权信息的自发人为表情识别方法。具体内容如下:(1)提出了交互式的主动特征点标注方法。首先,通过贝叶斯网络建立特征点之间的空间模型;其次,计算各个特征点与其他特征点之间的互信息,具体分为两步:第一,为了确定最具有信息的面部区域,计算其中某一个面部子区域与余下的面部子区域之间的互信息,第二:计算最具有信息的面部区域的某一个特征点与其他特征点的互信息大小,以此确定特征点矫正的顺序;然后,按照互信息的大小降序排列特征点,用户根据这个顺序依次纠正特征点;最后,通过贝叶斯网络将用户矫正的特征点与原始的特征点值联系在一起获得矫正后所有特征点的值。在CK+数据库上的模拟实验证明了本文提出的方法的有效性。(2)较全面地分析了可见图像的自发和人为表情的差异性。首先,根据中性帧和夸张帧之间的差值图像,提取几何特征和纹理特征;其次,从三个方面通过假设检验的方法分析自发和人为表情的差异性,这三个方面分别是:整体样本、不同性别的样本以及不同表情的样本;最后,采用贝叶斯分类器从同样的三个方面来区分自发和人为表情。在USTC-NVIE数据库上的统计分析结果显示几何和纹理特征对自发和人为表情区分的重要性。除此之外,自发和人为表情识别在性别上确实存在着差异;而且相对于其他五种基本表情,高兴的自发和人为表情区分更加容易。实验的识别结果在大多数情况下证实了统计分析的结果。(3)提出采用贝叶斯网络分别学习自发和人为表情变化的空间模型,并应用于自发和人为表情识别。首先,提取关于面部形状和行动单元变化的几何特征,用来捕获面部空间变化;然后,同(2),从三个方面采用定义的几何特征对自发和人为表情进行显著性差异分析;最后,以表情类别和性别作为特权信息,采用贝叶斯网络,分别建立自发和人为表情空间模型。在USTC-NVIE和SPOS数据库上的统计分析结果证实了提出的几何特征的有效性。在USTC-NVIE数据库上的识别结果表明性别和六种基本表情作为特权信息能够帮助建立自发和人为表情的空间模态。在这两个库上的识别结果都优于目前方法的实验结果。(4)提出了基于贝叶斯网络的特权信息学习方法,并应用于自发和人为表情识别。首先理论分析了何种结构的三结点贝叶斯网络可用于特权信息学习;接着,以性别为特权信息,在USTC-NVIE数据库上进行了自发和人为表情区分实验。实验结果表明使用性别作为特权信息时,三角形和V字形贝叶斯网络结构有助于提高识别率,从而说明性别对自发和人为表情区分起着促进作用。