论文部分内容阅读
随着计算机视觉技术的高速发展以及人工智能领域的兴起,视线跟踪(gazetracking)技术已经成为各大研究机构和高校的重点研究方向之一。视线跟踪作为一种新型的人-机交互技术,它的应用十分广泛,包括智慧医疗、辅助驾驶、心理研究、虚拟现实和军事等多个领域。极为丰富的眼动信息能够反映人类情绪的变化和行为动向,同时也是视觉任务的最直观体现,因此,当对可视对象进行选择和操控任务时,可以通过视觉通道对人-机通道进行控制,即使用者首先注视需要感兴趣物体,再引导视觉通道进行选择或操控动作。综上所述,采用眼控系统的优点在于能够更加方便、迅速地对可视对象进行控制。论文围绕着视线追踪这一主题,采用基于瞳孔-角膜反射的视线估计方法,构建了头戴式视线跟踪控制轮椅系统,该系统相对于非头戴式视线跟踪控制轮椅系统来说,具有精度高和适用场景广的优点。探讨了瞳孔定位方法、视线落点的计算和眼控轮椅的整体方案:1.研究了瞳孔和普尔钦斑点中心的提取算法。采用的是基于弧段提取的椭圆拟合算法定位瞳孔中心。为了解决非线性非高斯问题,同时提高瞳孔状态参数的提取精度,本文使用了粒子滤波和卡尔曼滤波相结合的方法来对瞳孔进行跟踪,使系统的鲁棒性明显提高。为了更为精确的提取普尔钦光斑中心,首先截取瞳孔周边的区域;接着使用最大类间法(OSTU)对图像进行二值化分割出普尔钦光斑;最后利用质心法计算出普尔钦光斑的中心。2.分析视线落点估计的原理及流程,利用真实视线落点坐标与眼动参数计算眼部图像坐标系与场景图像坐标系之间的非线性映射关系从而估计出场景图像坐标系下注视点坐标。本文采用BP神经网络去拟合该映射关系,结合15×10个样本去训练神经网络,从而确定眼部图像坐标系与场景图像坐标系的映射关系。3.构建了眼控轮椅系统。通过计算瞳孔中心坐标与参考点坐标的相对位置,将该相对位置转换为方向指令,并通过蓝牙发送给轮椅控制器,最终达到控制轮椅的运动方向的目的。实验结果表明,视线跟踪在平均误差距离不超过5个单位时,视线落点的准确率为91%,对轮椅的5种运动方式分别为前进、后退、向左、向右和停止的平均准确率为98.2%。通过调整眼动参数能够稳定控制轮椅的运动,为残疾人、渐冻人和老年人等提供了能自由活动的新型方式。