论文部分内容阅读
在虚拟试戴系统中,虚拟物体需要精准地叠加至实时的人脸图像上,这决定了虚拟试戴系统的体验感,其中的关键技术在于快速准确地估计人脸的实时三维空间位姿.针对这一技术要求,提出一种实时估计人脸位姿的方法,并构建了虚拟试戴原型系统.首先使用深度相机采集人脸数据,分析单帧正面图像的彩色和深度信息,计算人脸特征点三维数据;然后结合从视频帧中提取的实时人脸特征点二维数据,使用直接线性变换法求解出人脸的实时位姿.基于消费级深度相机Astra Mini S和Unity 3D引擎开发了原型系统,并进行了虚拟试戴实验;使用