论文部分内容阅读
长久以来人们一直总有一种渴望,希望自己坐在家里或者办公室里就可以控制一个在遥远场景中的机器人,并且通过机器人身上的传感设备,可以将遥远场景中的各种实时感受反馈给人们,使人们可以产生远程场景的真实存在感。另一方面一个远程操作的机器人系统在很多情况下给人提供帮助,代替人们完成一些繁重、危险的任务,例如工厂或者电厂的例行维护、建筑工作、老年人或者残疾人的照看工作以及紧急情况或者灾难时候的救助工作。尤其是在一些危险环境中如核辐射、高温、深井等的工作,人们也希望能过遥控机器人实现,避免对身体造成不必要的伤害。随着机器人技术和网络通信技术的快速发展以及各种精密测量仪器的出现,遥在技术的出现满足了人们的这种需求。它能够使用户实时的感受到非其所在地点的场景,使其有一种真实的身临其境的感觉。视觉的展示是遥在技术中非常重要的元素,要使用户获得在其他场景中出现的感受,首先要使用户能够看到该场景。当前的遥在技术研究主要分为两种情况:一种通过替身机器人获得远程真实场景的真实感受,另一种则是通过电脑合成的虚拟场景,获得虚拟场景中的真实存在感。进入21世纪以后,遥在技术发展日益成熟,人们可以操作远程机器人完成各种越来越复杂的工作,而且可以获得高度的真实感,但是现有遥在技术,对于人类头部运动信息的捕获大多是通过传感器完成,不仅需要在头盔显示设备上安装传感器,造价昂贵,而且测量精度有限。本文提出一种基于视觉的遥在系统实现方法。通过摄像机定标算法实时计算头盔显示器摄像头参数,解决固定视点下头部运动跟踪的问题,即能够保证头部跟踪精度,又能够降低系统造价,减少不必要的开支。通过摄像机定标解决固定视点下头部运动信息捕获问题,就必须解决两个问题:实时性以及跟踪精度,因此在保证定标精度的前提下算法的时间延迟越小越好。而现有的摄像机定标算法虽然定标精度很高,但是普遍时间延迟比较大,不符合遥在技术的要求。为此本文采用基于GPU的固定视点相机快速定标算法,通过特征跟踪及摄像机参数估计阶段多种加速策略的结合,极大地缩短了系统时延,使我们的遥在系统可以实时获得操作者头部运动信息。