论文部分内容阅读
如何实现智能体的自主定位与环境感知是无人驾驶领域和智能移动机器人系统的重要研究方向。利用计算机视觉实现定位、环境感知和目标检测是实现无人驾驶稳定安全运行、机器人智能避障并与环境交互的一个重要手段。本课题从无人小车的智能避障功能出发,设计以单目相机为传感器的三维目标检测算法,利用自身已有的SLAM算法,提升目标检测精度与定位精度。首先,设计了一种基于几何建模的三维目标检测算法,利用透视原理的消失点和候选区域求解立方结果。针对结果方向角不确定性的问题,设计损失函数对结果进行筛选,利用误差评分获得最优方向角估计。针对候选区域和目标结合不够紧密的问题,在候选区域内部进一步进行图像分割,获取分割结果外接矩形作为紧密候选框。其次,设计了对单目视觉ORB SLAM2后端BA优化公式进行改进。将传统BA优化的空间三维特征点与相机位姿的约束关系引入空间三维目标约束,实现相机-特征点、相机-目标和特征点-目标的相互约束关系。对位姿、地图点与三维检测结果进行统一优化调整。再次,针对目标检测的时间维度互不关联的问题,利用ORB SLAM2前端的特征点匹配关系结合二维目标检测算法提出的候选区域将相邻帧检测结果进行关联。对于候选区域内部无匹配特征点的情况,利用Shuffle Net v2作为基础网络,分组计算生成低相关性的哈希码,对候选框区域附近的目标进行相似度检测,关联最相似的目标。这两个策略实现了以环境中每个物体为基本单位、并关联各帧检测结果的时空融合检测。最后,完成算法的架构设计和软件实现,在Ubuntu和ROS操作系统中实现整个系统。利用KITTI数据集和TUM数据集分别对三维检测部分和SLAM位姿估计进行测试,评估检测精度和位姿估计精度,验证本文所提算法和系统的有效性。