论文部分内容阅读
机器人视觉是实现机器人智能化的重要技术,也是机器人领域的热点研究课题之一。机器人视觉主要是通过视觉系统获取二维图像,感知并且恢复三维环境中物体的姿态、相对位置和几何信息等,描述和解释周围环境,然后把获取的环境信息传送给移动机器人,由机器人系统做出决策。本文对移动机器人视觉匹配与SLAM算法进行了研究,并且在传统方法基础上进行了一些改进,主要研究内容如下:首先,概述了移动机器人视觉的研究背景和意义,分析了智能机器人视觉系统和图像匹配技术在国内外研究领域的发展和研究现状。其次,对移动机器人定位概念和较为常用的几种定位方法进行了介绍与比较;然后建立了世界坐标系、摄像机坐标系和图像坐标系之间的转换关系;按照图像信息的不同,概述了特征点检测的常用方法;并且对移动机器人SLAM的解决思想进行了分析。再次,利用Gabor滤波函数对频率和方向的选择特性,对SIFT算法忽略特征点间几何关系的不足进行改进,选择图像的局部频率和局部方向作为Gabor函数的参数,执行Gabor函数和匹配图像的卷积计算,获取特征点信息描述,有效去除噪声。同时结合置信传播(BP)算法,利用映射图像中特征点之间的空间约束关系,以迭代的方式计算对应图像中的关键点,增强图像匹配性能。实验表明,改进后的算法在移动机器人图像配准的效果上平均提高了近10%的准确率。最后,提出了基于改进的SIFT特征跟踪的视觉SLAM研究方法。通过单目视觉系统提取和跟踪环境特征点集,并应用扩展卡尔曼滤波算法使其按照观测模型估算出下一时刻机器人的位姿,结合视觉机器人SLAM方法,得到机器人周围的环境信息,提取环境特征,定位路标位置,进而更新机器人位姿和地图库。