论文部分内容阅读
视线跟踪在人机交互、增强现实、人类习惯学习等领域有着重要的应用,近年来在计算机视觉领域得到了越来越多的关注。在人机交互领域而言,视线跟踪系统可分成两大类:一类基于桌面式眼动数据采集,用户不佩戴任何设备;另一类基于头戴式设备获取眼动数据,用户需要佩戴一些设备己获取状态数据。随着轻便材料和加工工艺的发展,基于头戴式的视线跟踪系统的应用将会更加普及。基于头戴式系统的研究涉及图像处理、计算机视觉领域的理论和技术。在图像处理方面,需要精确、快速地定位眼部图像中的变形瞳孔中心。在计算机视觉方面,则需要准确建立眼睛状态到显示器的空间映射关系,使得用户在标定过程和使用过程中得到更舒适的用户体验。
本文针对上述问题开展研究,主要的工作和贡献可总结为以下几点:
1.探讨和实现了一个两级的瞳孔定位方法。首先根据改进的星射线法,提取瞳孔边缘并进行椭圆拟合,在不发生眼睑遮挡时,能比较准确检测出变形瞳孔的中心。基于3D眼球模型设计了一个瞳孔遮挡检测算法,可以有效判断瞳孔是否被遮挡。当检测出瞳孔被遮挡时,进行第二级定位,采用改进的椭圆模板匹配算法,依据眼球模型参数,事先获得椭圆中心对应的长短轴比例和旋转角度,将椭圆模板匹配的计算复杂度由5维降低到3维,有效提高了匹配的效率。
2.研究和完成了一个由粗至精的快速眼角定位算法。首先提取眼部图像边缘,再利用椭圆拟合出眼角的大致区域。在内外眼角大致区域利用阈值分割出初始的内外眼角点。在内外眼角点上划定一块小区域,利用基于SUSAN算子的加权方差投影函数(SWVPF)进行眼角的精定位,实验结果验证了该算法的有效性。
3.建立了一套基于3D眼球模型的空间视觉模型,解决了标定过程存在的一点标定问题、使用过程头部自由运动产生的模型失配问题和头部运动空间测量问题。引入了一个基准坐标系,建立了一个从眼球坐标系到基准坐标系再到显示器坐标系的空间变换关系。基于场景摄像机,实时计算基准坐标系到显示器坐标系间关系;基于标定过程,训练出眼球坐标系到基准坐标系关系;从而最终计算出视线在显示器平面上的投影,即凝视点。基于该空间视觉模型,利用场景摄像机,可计算出头部的运动范围和角度。
4.设计并实现了一套视线交互的原型系统,实现了包括软键盘输入,目标跟踪和地图导航控制等应用,展现视线跟踪技术的应用前景。