论文部分内容阅读
视线跟踪技术是智能眼动操作系统的关键技术,是实现先进眼动操作系统作为高级人机交互应用的基础和前提。视线跟踪技术发展初期,采用的跟踪方法对人干扰较大。近年来随着机器视觉和图像处理技术的发展,利用视觉方法记录眼动并采用图像处理方法分析视线方向的非接触式视线跟踪技术得到广泛应用。本文阐述了非接触式视线跟踪技术的发展历程,介绍了现有的实现视线或注视点实时动态跟踪的非接触视线跟踪技术,包括2D视线跟踪方法、3D视线跟踪方法和基于3D模型的视线跟踪方法。指出2D视线跟踪技术强烈依赖标定映射平面,且只能得到二维视点信息;3D视线跟踪技术头部自由运动和高精度眼睛图像跟踪无法兼顾,且空间标定过程繁琐复杂。针对目前存在的问题,提出采用基于双目立体视觉的自由空间视线跟踪新方法。该方法基于双目立体视觉测量模型,融合极线几何约束,获得精确的瞳孔中心及瞳孔所在平面的空间姿态,并定义“单只眼睛的瞳孔边缘所构成的圆平面中心点法线方向”为视线方向,该定义与通常的瞳孔角膜反射法不同,具有更严格的三维表达。首先,基于双目立体视觉的自由空间视线跟踪模型构建自由空间视线跟踪实验装置,包括双目相机和取景相机的选型及半透半反镜和头罩基体的制作,其设计满足人类工效学原理。其次,基于双目立体视觉的自由空间视线跟踪模型的实现,即定义的视线方向的跟踪。视线方向跟踪部分主要包括双目相机标定、瞳孔边缘点匹配及瞳孔所在圆平面空间姿态计算等过程。瞳孔边缘点匹配基于极线约束匹配技术,分别采用基于相机投影矩阵和SURF+RANSAC图像匹配点方法计算基础矩阵,从而进行瞳孔边缘点的同名点对匹配,实验得出二者匹配效果皆很好,基于投影矩阵的方法速度更快。本文所提出的基于双目立体视觉的自由空间视线跟踪方法,可解决现有三维方法中存在头部自由运动与高精度眼睛图像跟踪无法兼顾及空间标定过程复杂的问题,同时可以获得三维的视线方向。