论文部分内容阅读
自动驾驶技术于未来交通运输、未来商业模式、智慧城市等领域有着重要意义。环境感知是实现自动驾驶的基础和技术前提,而多传感器数据融合因能提供冗余且准确的环境信息,现已成为环境感知技术的研究热点。融合技术发展过程中,为了确保精准可靠地检测目标,常不惜成本选择性能优越的传感器,但却也影响技术的商业化应用。因此,探索低成本的融合技术具有一定的研究意义与价值。为了改善单一传感器所造成的检测效果不佳以及避免多传感器融合普遍存在成本过高的问题,本文研究了一种基于4线激光雷达点云与视觉图像数据融合的目标检测方法。本文的主要工作内容包括:首先,采用Mask R-CNN卷积神经网络检测图像中的目标,研究了图像与激光雷达点云的时间、空间融合方法。将传感器采样时间统一到相同的时间戳,并对齐于采样周期长的传感器数据上;标定摄像头内、外参,建立传感器坐标系的空间转换模型,将同一时刻的数据映射到同一空间,实现了两种传感器对同一目标的一致性表达。然后,为了利用点云的深度信息获取目标在真实世界的准确位置,进一步匹配了图像检测框与对应的点云。采用循环遍历算法无法保证匹配效率,于是改进一种R-Tree算法,并验证了该算法能够快速、稳定地配准两种数据。匹配完成后,求取检测框内所有点云的距离平均值,以获得目标的真实距离信息;同时研究了基于点云的目标识别置信概率的修正方法,采用sigmoid函数进行概率修正,最终验证了融合方法能够有效地降低目标漏检的概率,漏检率从14.86%降到了8.03%。最后,为进一步提高目标的测距精度,先分析了对于近距离目标,仅靠点云测距所存在的弊端,然后针对性地研究了基于图像与点云数据联合测距的方法。利用标定的摄像头内、外参和成像模型的几何关系,采用了基于图像的测距方法,并用标注好的数据进行测试,得出图像测距的适用范围为20米的结论;在适用范围内,先采用图像测距的结果排除异常点云,然后将被筛选出的点云求平均值作为最终测距值。最终测试验证了联合测距方法切实改善了测距精确性与稳定性,结果显示20米内的测距平均误差从2.36米减小到0.37米。在改善误检率方面,参考了网络模型迁移学习的相关研究成果,探讨了采用迁移学习方法重新训练网络模型的具体方式。综上所述,本文所提的基于点云与图像的融合方法相比单一图像数据,在漏检率和测距精度两方面,能切实有效地改善目标检测效果,且方案成本较低,具有一定的实用性。