论文部分内容阅读
对于工作在复杂场景中的移动机器人系统,如何使其具有良好的场景理解能力是一个极具挑战性的课题。近年来随着机器人学以及相关领域技术的快速发展,自主移动机器人逐渐从室内环境过度到室外环境,从结构化环境过度到非结构化环境。这一发展趋势对移动机器人性能和技术提出了更高的要求。为了取得高层次智能行为,信息感知,挖掘以及融合是其关键组成部分,决定了信息有效利用的程度。本文主要针对室外大场景下移动机器人三维激光和单目视觉间的标定和数据融合进行了研究。本文首先对单传感器的弱点进行了探讨,指出了其在信息提取和功能上的局限性。进一步分析给出了配备有多传感器室外移动机器人系统在传感器信息融合方面的前沿和实用化技术,指出多传感器融合技术是获取有用信息的有效手段。然后针对移动机器人平台上装配的三维激光和单目视觉传感器间的标定方法进行了重点研究。采用两级标定方法,对单目摄像机进行了在线标定。通过对已有的激光和视觉传感器间标定方法的分析,设计实现了新的自动标定方法。利用设计的标定装置完成三维激光和单目视觉之间的自动联合标定。标定过程中激光数据特征角点的提取过程分为检测与校正两阶段。检测阶段将原始三维激光数据与二值化后的测距数据矩阵进行映射关联与统计分析;校正阶段通过与由标定板中黑白格角点所构造的标准模板相匹配,提高了角点提取精度,进而采用迭代优化方法进行求解。该方法克服了手动操作误差不可控,且仅限于近距离标定及对噪声敏感等不足。通过三级误差分析手段保证了标定结果的正确性。本文最后从三个不同角度给出了室外大范围场景下,三维激光和单目视觉间数据相融合的方法,分别是利用图像渲染三维激光点云数据形成的彩色激光图,将三维激光投影到二维平面生成的深度图以及利用激光的深度信息对场景图像提取的局部描述符的校正。该工作为移动机器人室外复杂环境下增强建模、信息深度融合及虚拟现实技术奠定了基础。