论文部分内容阅读
近年来,在计算机、通信、人工智能等技术的推动下,汽车自动驾驶和ADAS技术的发展如火如荼,将在解决各类交通问题上发挥越加重要的作用。环境感知作为自动驾驶、ADAS的关键环节,是整套系统安全稳健的前提和基础。基于计算机视觉技术的交通场景目标检测作为自动驾驶环境感知的一大重要任务,需要同时检测汽车、行人等多类目标,并面临目标尺度多样、姿态角度多样、遮挡、环境背景复杂、光照强度变化、高精度和高检测速度要求等诸多挑战。基于深度学习的目标检测算法相比基于手工设计特征和滑动窗口的传统算法,具有精度高、通用性强、任务迁移能力强、工程开发、优化和维护成本低等优点,可以达到传统方法无法企及的效果,成为克服交通场景目标检测任务上述难点的有效解决方法。本文以基于深度学习的YOLOv3目标检测算法为基础进行改进和优化。针对原始YOLOv3算法参数量、计算量偏大的问题,使用基于深度可分离卷积和反向残差块的轻量化MobileNetV2网络改进目标检测算法的骨干网络,在检测精度略微损失的情况下算法参数量降低58.3%,检测速度提升47%。采用k-means算法对KITTI数据集中目标真实边界框信息进行聚类,得到优化后的更符合交通场景目标特点的锚框尺寸,提高了1.35%的检测精度。然后对不同输入尺寸和锚框种类数量对于目标检测算法性能的影响进行了实验探究和分析,综合考虑检测速度和精度两方面后选取出对于算法性能最为均衡的输入尺寸和锚框数量。此外采用GIoU损失函数作为YOLOv3算法的边界框回归损失函数,进一步提高了交通场景下的目标检测精度。最终本文改进的YOLOv3目标检测算法在测试集上达到了82.29%的检测精度和35.7FPS的检测速度,达到较高检测精度的同时完全满足实时检测的要求,并通过长沙实际道路图片的测试来检验算法的泛化能力,证明了本文算法的有效性。