论文部分内容阅读
随着互联网技术的广泛应用和计算机视觉的深入发展,人脸识别技术的可靠性和高效性得到了极大的提升并在身份认证系统中占有举足轻重的地位。诸如安防、金融、网络安全、以及考勤等领域都离不开人脸识别技术。但与此同时,针对人脸身份认证系统的攻击手段也层出不穷,常见的攻击手段如手持合法人的照片或重放录制合法人的视频。随着3D打印技术的飞速发展,3D打印面具的威胁更是超越了传统二维攻击,这些人脸识别系统的安全性构成了极大的挑战。本文重点研究了时序下的深度信息对二维平面载体攻击的检测和在瓶颈特征上融合几何信息的针对3D打印面具活体检测算法。主要工作如下:通过对图像深度信息的像素级监督学习,实现比传统二值分类更好的精度和泛化。以往研究的基于深度信息监督方法只将深度视为单帧中的辅助监督,而没有考虑到时间信息在深度信息重建中的重要性。由此提出了一种综合时间和空间信息的深度特征回归人脸反欺骗模型。利用多帧之间的时间信息对人脸深度信息恢复进行改进,从而提取出更具鲁棒性、更具识别性的特征,对活体人脸和欺骗人脸进行分类。通过实验表明,本章提出的方法能够有效地区分真实人脸和基于照片以及视频展现的人脸。随着3D打印技术的不断发展,使用3D面具进行欺骗攻击逐渐成为新威胁。在剪切波变换基础上,结合人脸三维几何特征和局部区域纹理变化,针对3D面具欺骗攻击提出一种利用多层自编码网络进行特征融合分类来识别攻击面具的方法。对人脸3D扫描图进行非下采样剪切波变换,得到对应图像的低频子带和高频子带。在低频子带上搜索各个尺度上图像位置并用尺度空间极值函数识别潜在特征点,进行关键点定位及方向分配,生成特征描述子。将其与高频子带上提取的纹理特征输入栈式自编码器和softmax分类器进行瓶颈特征融合分类。在基于柔性TPU材质3D打印面具BFFD数据库上试验表明,加入三维几何特征的多特征融合方法相比于以往单独使用纹理特征的方法对反3D面具攻击的准确率得到了显著提升。最后设计并实现了一个视频级人脸活体检测系统,测试验证论文所提算法的有效性。并对人脸反攻击工作进行了总结,并对基于新方法的后续工作进行了展望。