论文部分内容阅读
即时定位与三维场景重构一直是智能机器人领域的研究热点和重点。在重构过程中,视觉传感器具有高采样频率及能够采集场景的颜色和纹理信息的特点,但易于受到光照等环境的影响,而三维激光能够获得场景的尺度信息且不受光照等环境因素的影响,但其数据采集频率较慢,因此本文基于单目视觉与三维激光的数据融合对即时定位与三维场景重构展开了研究。为求解单目视觉与三维激光的联合标定参数,本文提出了基于图像与点云角点配对的联合标定方法,该方法将散乱的三维点云通过透视投影获得一副无畸变的点云反射值图像,然后分别提取该反射值图像与视觉图像的角点并建立匹配对,最后通过高斯牛顿迭代法求解联合标定参数。联合标定实验的结果表明了本文提出标定方法的有效性和准确性。为实现不依赖于定位传感器的即时定位和三维场景重构,本文基于惯导信息对三维点云数据进行了一定的运动补偿,并使用三维点云配准算法完成了相邻点云间的位姿校准。为提升三维重建效率,本文基于改进ICP算法解决了海量点云配准的实时性问题:首先提取每一帧点云的角点和平面点,利用这些特征点进行激光点云数据之间的初配准;然后将初校准的激光点云数据与历史累计点云进行配准,得到精准的里程计数据和三维重构数据。为验证算法的有效性和准确性,本文分别用理工校园数据集、地震救援中心数据集和KITTI数据集来测试了该算法。为解决三维激光在快速转弯时容易出现的点云配准失败问题,本文还提出了利用视觉传感器的高采样频率特性对激光里程计进行初校准的方法。该方法对视觉传感器采集到图像提取Harris角点,并利用KLT算法进行角点跟踪,然后通过融合激光的尺度信息进行运动估计,为激光点云数据进行里程计初校准。实验表明该方法有效地解决了快速转弯易于出现里程计失准问题。最后本文利用开源工具g2o对闭环实验数据进行了后端优化。