论文部分内容阅读
人脸表情动画的研究一直是多媒体领域的一个热门研究课题,为研究者们所热爱;其目的是利用动画中人脸姿态以及面部肌肉运动来形象生动地表达某个角色的表情。实时性和真实性是目前监测人脸表情动画的两个重要指标,在人脸表情动画的传统制作过程中其动画的逼真效果一般需要付出巨大的人工代价,动画的实时性也较差,所以寻求一种更加实时高效的人脸表情动画技术迫在眉睫,基于表演的人脸表情动画应用而生。基于表演的人脸表情动画合成技术就是让目标模型表演所需要的表情;首先通过摄像头、传感器或者Kinect体感设备采样,然后使用软件处理方式记录人脸表情动态,提取有效的动画表情参数,利用这些参数驱动动画模型,生成表情动画,这样减少了手工调整表情的枯燥工作,从而大大降低了表情动画的制作成本,并且保证了表情的真实性。表演驱动人脸表情动画合成技术主要包括人脸表情动作捕捉和人脸表情动画合成两个重要部分。在人脸表情捕获方面,本文采用Delaunay三角剖分对Kinect捕获的人脸表情模型进行三角化,Kinect设备不仅可以在光照不足的情况下正常工作,而且具有纹理和颜色不变性,它可以提供普通图片不具有的深度信息;但是Kinect捕获的人脸表情模型是大量的点云数据,不仅散乱而且覆盖密集,有时还会出现部分数据丢失的情况,不能直接用于后期的人脸对齐以及表情基的建立,因此本文采用Delaunay三角剖分对其进行三角化,变为三角网格。在人脸动画合成方面,本文提出了一种基于局部和全局特征回归的人脸对齐算法以及个性化的人脸表情基自动生成方法。前者利用局部特征估计人脸外形,全局特征作为约束条件,在级联方式下,训练人脸对齐回归量,实现人脸外形估计与真实外形的逼近;后者是人脸动画必不可少的重要组成成分,首先利用一组先验模型作为模板模型,采用ICP算法在模板模型与目标模型之间建立一个映射关系,然后通过deformation transfer形变目标模型,生成自然真实的表情基模型。最后,本文在不同基本数据库上进行试验,通过对实验结果的对比分析,可以看出本文算法具有很好的鲁棒性以及更好的性能。