论文部分内容阅读
本文以德国IDS公司的ueye相机作为环境感知传感器搭建平行式双目立体视觉系统,结合低成本的IMU(Inertial Measurement Unit)在图像采样间隔时间内的短时平稳性,深入研究视觉惯导融合的移动机器人定位问题,最终实现精度高的、实时性好的6DOF(DegreeofFreedom)的移动机器人定位。主要工作如下:首先,对如何通过惯性传感器实现机器人的实时定位问题展开深入讨论和研究。先是对惯性导航所涉及的常用坐标系进行描述,然后阐述表征惯导姿态的常用方式,包括方向余弦矩阵、欧拉角和四元数法,并详细的介绍了四元数法以及四元数的定义、性质、转动四元数微分方程和如何用四元数表征旋转。接着以捷联惯导(Strap-down Inertial Navigation System,SINS)为例,重点阐述了惯导系统的基本原理和基本方程并以简洁的语言描述了惯导的定位流程,以及如何进行惯导姿态的解算。其次,对如何通过视觉传感器实现机器人的实时定位问题展开深入讨论和研究。由于本课题的所有实验均是在ROS(Robot Operating System)即机器人操作系统中进行,因此首先研究ROS操作系统以及如何在ROS中编写程序和运行程序。然后,对摄像机成像模型、摄像机标定、双目立体图像校正、特征点提取与匹配算法和运动估计展开研究,并利用ROS操作系统中的ueye相机标定包对双目摄像机进行标定。最后,结合视觉导航的理论研究和LIBVISO2(Library of Visual Odometry),在ROS中编写视觉导航代码,并通过可视化工具RVIZ显示包含视频序列和以点云方式显示运动轨迹的实验结果。最后,本文提出并实现了一种新的融合视觉和惯导的方法。结合低成本的IMU在图像采样间隔时间内的短时平稳性,深入研究视觉惯导融合的机器人定位问题。在视觉里程计运动估计中,利用重投影误差最小建立用于求解运动参数的目标函数。在视觉和惯导融合时,结合惯导解算出的旋转矩阵和平移向量重新建立目标函数,并通过高斯-牛顿法进行求解得到最终的旋转矩阵和平移向量。结合上述融合理论,在ROS中编写两者融合的代码,同样在可视化工具RVIZ中显示实验结果。