论文部分内容阅读
在虚拟现实遥现遥控系统中,由机器人参与的前端和由人控制的终端需要进行实时交互。但由于数据量庞大以及恶劣的网络传输信道等原因的限制,图像传输往往造成严重的时延,这是虚拟现实遥现遥控系统急需解决的难点。依据现代图像压缩编码技术思想,本文给出一种传输方案:即由前端传输的不是整幅图像,而是中远距离目标的视觉要素:目标类别、数量、位置、距离、姿态、速度等;终端根据得到的视觉要素进行判断,由目标模型库得到整幅图像并生成虚拟现实场景,从而有效地传送反馈指令控制机器人;终端若要观察场景,可由前端传送经过压缩的图像,减轻传输信道的压力,实现实时交互。结合本文设定的实际情况,为了得到目标视觉要素,需要前端的机器人完成目标识别跟踪和特征点对应。这种要求涉及到视觉研究的本质和方向。 作为视觉研究的一种探索,本文探讨了视觉注意和视觉融合,并以此为依据给出了多模型视觉系统技术思想,即:以极指数栅格技术为基础的视觉机理模型,以视觉不变量为基础的视觉功能模型,以目标识别跟踪为基础的视觉行为模型及其有机融合,形成一个与人的生理视觉有某种程度相似的视觉系统方案,并用来得到目标视觉要素。其中极指数栅格技术起核心作用,它的最大特点是与人的生理视觉机理有某种程度的相似,具有探索的意义。 形心是目标一个非常重要的特征,特别是极指数栅格技术的前提就是迅速准确地求取形心,因此目标形心获取是一个重要的过程。针对传统形心快速搜索算法的缺陷,本文给出了两点改进:一是给出确定初始动态形心方法;二是给出了自适应步长搜索形心的方法。减少了搜索范围,缩短了搜索时间,实验证明,改进算法是有效的。 为实现三维运动目标识别,本文以极指数栅格技术为基础,进行傅立叶变换得到目标的不变量,利用ART神经网络进行聚类分析,结合方面图技术根据输入的多个侧面图识别目标,实现了三维运动目标识别系统。 时间间隔较大的图像序列帧间的特征点对应一直是一个难以解决的难哈尔滨工程大学博士学位论文题。本文给出了粗细定位结合的极指数栅格方法。粗定位算法在直角坐标下得到平移量,在极对数坐标下得到旋转和缩放量;细定位算法在直角坐标系中进行,采用最近距离法来实现特征点匹配。实验证明,该方法能很好的解决大范围内特征点对应问题。由于在实现图像序列特征点对应时,要对目标进行识别,因此还给出了基于波形结构特征的二维目标识别方法。最后介绍了三维目标特征点对应。 为了实现目标检测和跟踪,本文首先推导出在极对数坐标下基于广义动态图像模型,采用极对数坐标下的梯度算子利用全局优化类约束的光流计算公式,无需存储原先的邻域关系,减少了计算时间,可用于实时计算。其次给出了在极对数坐标下基于光流的目标检测和跟踪算法,该方法首先进行运动边缘分割,然后在分割的各个运动区域内计算各个区域的光流场,根据得到的光流场实现目标检测和跟踪,还可用于多目标检测和跟踪。关键词:视觉模型;目标识别跟踪:形心;特征点对应;光流