论文部分内容阅读
视线追踪是利用机械、光学、电子等检测手段跟踪人眼运动,估计视线方向并预测人眼关注点的技术。这一技术有很广泛的应用,例如残障人士的辅助设备、消费电子类交互产品、心理生理学研究和虚拟现实应用等领域。近年来,穿戴式智能设备得到了快速的发展和应用,智能眼镜、手表、服饰等多形态的产品正逐步走进人们的生活,改变着现代人的生活方式。视线追踪系统从构成上一般可分为穿戴式和桌面式两类,从检测方法上分为基于模型的和基于外观的方法。基于模型的方法借助多个同步摄像机和红外光源等专门的硬件,通过提取人眼几何模型及其相关特性来确定视线方向。基于外观的方法则相反,它们不需要任何专门的硬件,仅用家用相机观察人眼的自然外观即可实现追踪过程。人们提出了很多不同的实现方法,主要包括眼电流图法、巩膜接触镜法、眼睛视频分析法和基于视频的瞳孔角膜反射法等。大多数视线追踪方法普遍存在一个问题,它们需要为不同用户进行主动标定的过程,受试者总是积极参与标定任务中,他们的眼睛需要明确地注视在参考点上。另一个问题是这些方法往往存在标定漂移的问题,标定的精度高度依赖于用户和安装设置。在很多情况下,这种主动标定过程有太多限制,因为它打断了受试者的自然反应,不太可能实现无意识的视线估计。虽然可以通过使用多个光源和立体相机等专用硬件来减少个人标定参考点的数量,但它仍然需要用户积极参与标定任务,而且增加了使用场景的限制。本文使用了一种基于视觉显著图的目光感知方法,该方法不需要主动标定过程,只需要使用者看一段视频即可实现视线追踪。这种方法把视频帧的显著图看作注视点的概率分布,根据相似的眼图来聚合与之对应的显著图,借助高斯过程回归的方法建立眼图和注视点之间的映射关系。本文通过使用改进的显著图提取算法,建立从视线到注视概率图的反馈回路,从而提升了视线追踪的准确性。此外,通过优化眼图的滤波算法,增强了系统的可靠性和适用范围。