论文部分内容阅读
视觉里程计作为机器人导航和定位的基础,一直是机器人技术领域研究的热点。RGB-D相机因其结构简单且能同时获取场景的纹理信息和深度信息,被广泛应用于机器人的视觉里程计研究中。但目前绝大部分基于RGB-D相机的视觉里程计算法较依赖于获取场景完整的深度信息,由于RGB-D相机的测量距离有限且受阳光的影响,因此在大范围环境下并不鲁棒。本文针对该问题提出一种大范围场景下的视觉里程计算法,并通过与惯性传感器进行融合提高系统的准确性和鲁棒性。主要研究内容成果如下:(1)本文从RGB-D相机的结构出发,研究了RGB-D相机深度测量的两种技术—结构光和TOF,并分析了这两种技术的优缺点。同时提出一种大范围场景下特征点深度信息获取算法,该算法在通过深度图像对齐获取深度信息的基础上,利用相机的运动通过局部地图投影和三角测量方法获取特征点的深度信息。(2)在特征点深度信息获取算法的基础上提出了大范围环境下RGB-D视觉里程计算法。该算法首先使用金字塔LK光流法追踪网格法提取的FAST角点;其次将上一帧中的特征点进行深度关联,从而获得深度已知的3D-2D特征对以及深度未知的2D-2D特征对;接着将2D-2D特征对使用五点法来估计相机的旋转矩阵,将估计的旋转矩阵作为初值来最小化3D-2D特征对之间的重投影误差求解相机平移向量;最后,采用光束平差法对获取的位姿与特征点进行局部优化。本文在TUM中的大范围场景数据集进行了实验,实验证明与RGB-D SALM相比本文算法的平均均方根误差减少了0.897m,同时相机估计位姿输出的平均频率达到20.34Hz。(3)由于视觉里程计依赖于特征点追踪的准确性,环境的变化会对视觉里程计算法产生一定的影响,因此本文通过使用扩展卡尔曼的松耦合框架将视觉和惯性传感器进行融合。首先对系统的状态变量进行了定义,并引入了视觉坐标系减小视觉里程计的位姿漂移;其次通过惯性传感器的运动学模型推导了状态量的误差传播方程,用误差方程来做协方差矩阵的预测更新,同时将视觉里程计输出的相机位姿作为观测量进行测量更新;最后本文引入了时间序列缓存机制将视觉和惯性传感器进行时间同步。本文通过实际搭建的硬件平台验证该视觉/惯性融合的RGB-D视觉里程计算法可以有效的减少位姿的漂移同时增强系统的鲁棒性。