论文部分内容阅读
近些年来,随着人工智能技术的高速发展,移动机器人在社会生活的各个领域内得到了广泛的应用。自主移动是移动机器人在各行各业中应用推广的重要发展需求,而同时定位与地图构建(SLAM)是实现移动机器人在未知环境下自主移动的关键技术。本文主要对室内环境下移动机器人的视觉SLAM算法进行研究。针对传统视觉SLAM方法中存在的效率低和误差大等问题,本文分别对其前端和后端进行了研究,并作出改进,得到一种准确性和实时性较好的室内视觉SLAM方法。首先,在研究了机器人操作平台(ROS)的基础知识和视觉SLAM的整体框架的基础上,完成了基于ROS的视觉SLAM实验平台的搭建,接着研究了Kinect相机的成像模型和相机标定方法,并在ROS环境中利用Open CV对彩色摄像头和深度摄像头的内参数和外参数进行标定,从而使相机采集到的RGB图像和深度图像对齐。其次,对视觉SLAM的前端的三个环节:特征提取、特征匹配、运动估计进行了研究。针对运动估计环节中,因像素深度数据缺失导致传统的ICP算法不能准确求解相机位姿的问题,提出混合使用迭代最近点(ICP)和高效的n点透视(EPn P)算法来进行运动估计,进一步提高了位姿估计的准确性。然后,在视觉SLAM的后端环节中,针对传统的随机回环检测算法,复杂度高,耗时长等缺点,引入了基于视觉词袋模型的回环检测算法,快速准确地减少了定位过程中的累积误差,接着研究了图优化模型,并利用全局图优化(g2o)对全局位姿进行优化,得到了全局最优的相机位姿和运动轨迹。最后,采用公开数据集TUM提供的评估工具对改进前后的室内视觉SLAM算法进行评价,验证了本文提出的视觉SLAM方法在提高了系统准确性的同时又保证了系统的实时性。另外,利用基于ROS的视觉SLAM实验平台在实际场景下进行了实验,给出了清晰的点云地图和八叉树地图以及估计的运动轨迹,验证了该改进方法的有效性。