论文部分内容阅读
视觉同时定位与地图构建(Visual Simultaneous Localization and Mapping,VS-LAM)即基于视觉传感器数据在未知环境下估计机器人位姿并重建环境场景,对这种不依赖于GPS的导航方法的研究是目前自主无人系统领域的研究热点。本论文研究融合其他传感器数据的单目VSLAM方法,解决了单目VSLAM所存在的尺度不确定等问题,并在实际系统上进行了实验验证。论文主要工作包括:1)提出了一种室内平面移动机器人单目VSLAM方法,该方法在基于优化的六自由度SLAM算法框架中将单目图像与轮式里程计数据相融合,通过设置雅可比矩阵将机器人位姿估计结果约束在平面内;此外,通过创建子地图和合并子地图功能解决在复杂环境中视觉跟踪可能丢失的问题。实验结果表明,该方法可实现室内平面移动机器人的准确定位,即使在复杂环境下也可保证所建地图的全局一致性。2)对基于优化的融合单目图像与惯性测量单元(Inertial Measurement Unit,IMU)数据的紧耦合视觉惯性导航算法进行了软件实现并将代码开源,在公开数据集上的测试结果表明,该方法在公开数据集的30m~2和300m~2的场景中均能达到约10cm的定位精度。此外,提出了基于逆深度参数化进行局部地图优化的改进方法来提高数值稳定性,室外实验结果表明,改进后的方法更适合室外大尺度场景,同时可以保证相近甚至更高的定位精度。3)搭建了一套单目相机-IMU组合的视觉惯性导航系统,解决了相机与IMU传感器时间同步问题,可以满足视觉惯性导航算法的时间同步要求。在室内外手持场景和室外无人机飞行场景等实验环境下进行了多组实验,实验结果表明,该软硬件综合的视觉惯性导航系统在轨迹长度约550m的手持绕建筑行走场景中回到起始点的定位误差在10m以内、20×20×20m范围内的无人机飞行场景中三轴定位误差在1m以内,验证了该系统的定位效果。