论文部分内容阅读
精确的移动机器人定位是当今学术研究的重要领域,是机器人自主导航的基础。传统的基于全球定位系统等外部定位方法虽然精度高但是使用条件具有局限性。而利用机器人视觉系统能够实现精确的自主定位,适用场景广,但易受到累积误差影响,融合惯性导航系统可以有效的弥补视觉定位方法的不足。本文研究融合惯导信息的机器人视觉自主定位方法。由于传统惯性导航定位中姿态解算的误差传递到航位推算中,经过积分运算后误差被累积影响定位精度并发生“漂移”,本文提出一种适合移动机器人的融合轮式里程计的惯导航位推算方法,避免了积分线加速度的航位推算,利用惯导解算姿态将轮式里程计的输出实时的投影到导航坐标系中,提高了惯导的定位精度与稳定性。另一方面,现有的视觉里程计算法中航向、俯仰和侧倾3个姿态角估计是耦合的,某个方向角的估计误差会投影到其他2个方向角估计中,经长时间累积后,使得运动姿态估计结果存在严重的方向偏差。本文提出实时扩展卡尔曼滤波器姿态估计模型,利用惯导结合重力加速度方向作为补充,对视觉里程计三个方向姿态估计进行解耦,修正姿态估计的累积误差;根据运动状态采用模糊逻辑调整滤波器参数,实现自适应的滤波估计,降低加速度噪声的影响,有效的提高了视觉里程计的定位精度和鲁棒性。最后,由于惯导和视觉里程计属于局部定位方法,缺少全局信息从而累积误差无法修正。本文研究基于惯导的视觉同时定位与地形构建,提出基于扩展卡尔曼滤波的SLAM方法,用惯导数据作为局部运动预测,利用匹配的SIFT特征作为路标进行数据关联,修正运动预测,同时建立场景路标地图,在未知环境中创建并维护场景特征,进一步降低定位估计的不确定度,弥补局部定位方法的不足。实验的分析和设计考虑了多种场景,利用全站仪测量机器人的坐标作为实际值,提供了有效的误差及定位精度分析手段。实验分析表明,惯导和视觉方法的融合有效的提高了定位精度,显示了本文算法的实用前景。