论文部分内容阅读
移动机器人同步定位与建图(SLAM)是机器人领域重要的研究方向,也是移动机器人实现自主导航的关键技术之一。随着人工智能和机器人硬件技术的不断提升,SLAM技术逐渐向多元化发展,主要包括基于二维激光的SLAM和视觉SLAM等。在相对复杂的环境中,移动机器人可以利用自身搭载的多种传感器进行同步定位与建图,如二维激光测距仪、深度相机和IMU等。本文结合二维激光SLAM和视觉SLAM的特点以及所用各种传感器的优缺点,研究并实现基于多源感知信息融合的移动机器人SLAM,完成的主要研究内容如下:(1)对基于Rao-Blackwellized粒子滤波(RBPF)的二维激光SLAM进行研究。针对传统RBPF-SLAM算法的局限性,即里程计误差较大和重采样次数较多,提出基于扩展卡尔曼滤波算法的里程计惯导信息融合算法,然后结合里程计惯导融合信息和观测信息提出了基于多传感器信息的混合提议分布,并进行选择性重采样,实现对RBPF-SLAM算法的改进。最后,通过仿真验证基于里程计惯导信息融合的RBPF-SLAM算法建图的准确性,通过实验证明了基于里程计惯导信息融合的RBPF-SLAM算法定位的准确性。并在实际场景中利用基于里程计惯导信息融合的RBPF-SLAM算法进行栅格地图构建,进一步验证了本文激光SLAM算法的有效性。(2)针对二维激光测距仪无法检测垂直方向障碍物的问题,以及在特征较少或环境光过亮(暗)的环境中深度相机误差较大的问题,提出了一种激光视觉信息融合方法。首先从深度相机获取的深度图像提取伪激光信息,然后将二维激光测距仪获取的激光信息进行过滤,接着提出激光信息融合算法将两个激光信息进行融合,再利用得到的融合激光信息进行障碍物检测和地图构建。最后借助仿真验证了基于激光视觉信息融合的SLAM能够检测垂直方向上的障碍物并构建在栅格地图中,并且能保证机器人定位的准确性。(3)针对视觉SLAM中移动机器人快速旋转时帧间估计失败的问题,利用激光SLAM得到的机器人二维位姿对PnP算法进行改进,提出了 Fusion-PnP帧间估计算法,并基于ORB_SLAM2框架实现了基于Fusion-PnP算法的视觉SLAM。利用实验对比了ORB_SLAM2和基于Fusion-PnP算法的视觉SLAM在机器人进行快速旋转运动时的表现,验证了基于Fusion-PnP算法的视觉SLAM的有效性和鲁棒性。