论文部分内容阅读
即时定位与建图(Simultaneous Localization and Mapping,SLAM)通过所载传感器完成在未知环境中的自主定位与建图,自主定位主要分为激光SLAM和视觉SLAM。激光雷达获取的场景信息单一,且成本高;视觉传感器能够获取丰富的场景信息,但传统视觉SLAM在低纹理、快速运动等场景下存在位姿易丢失的问题。本文是在移动机器人平台上,研究一种改进的基于视觉的定位与建图方法。主要的研究包括:1、在纯视觉SLAM系统框架上,融合了惯性测量单元(Inertial Measurement Unit,IMU)信息,将IMU预积分值作为位姿跟踪过程中的当前图像的估计位姿,使其更为符合实际运动模型,相比于传统视觉SLAM的位姿优化,增加了双目视觉的尺度约束和图像关键帧与关键帧之间的IMU运动约束,从而提高系统的精度和鲁棒性。2、给出了一种基于改进的自编码网络的回环检测方法,利用训练好的网络模型预测当前图像的特征向量,通过计算特征向量相似性来检索特征空间中当前图像对应的回环帧,从而利用两者之间的位姿关系来消除累积误差。3、实现了点云地图的保存,以及利用保存的离线地图进行定位,避免了重复场景的建图工作。本文实现了一种改进的双目视觉SLAM算法,通过在EUROC的11个子数据集上对本算法和传统算法进行定位精度测试对比,本算法有7个子数据集表现最佳。通过数据集对回环检测的准确率进行测试,当召回率在60%以内时,本改进算法的准确率达到75%以上,回环帧的检索速度相比于传统算法提高了34%。在相同场景下,基于离线地图的定位相比于同时定位与建图,有效地节约了13%的计算资源。通过搭建移动机器人平台并在实际场景中对本算法进行测试,证明了本算法的可行性。本文研究的改进的双目视觉SLAM算法在满足实时性的情况下,其精度和鲁棒性优于传统算法,可应用于扫地机、仓储物流机器人、增强现实设备等,具有十分广阔的应用前景。