论文部分内容阅读
随着机器计算能力的快速提升,深度学习算法在计算机视觉领域取得了巨大的突破,为计算机视觉相关的很多问题提供了解决方案,其中包括车流检测与追踪问题。传统的车辆检测算法大都基于路口摄像头数据进行研究,此方法在现实应用场景比较低效。随着低空航拍器的快速发展,获取低空航拍影像的难度下降,但依然需要很大的标注成本。目前,基于低空航拍数据的车流检测与追踪方法不能兼顾准确性与实时性。基于上述背景,本文提出基于深度学习的航拍车流实时检测与追踪方法。针对航拍图像的标注样本不够的问题,本文在YOLO检测算法的基础上,采用弱监督的训练方法进行了改进。通过少量标注图像训练了一个车辆分类器,利用区域推荐方法从图中挑选出候选框,由此分类器给候选框进行粗标注。粗标注的图像将用于初始化YOLO的卷积网络层,由此提升模型的检测性能。经过实验验证,本文提出的改进方法能使用少量的标注图像结合大量的未标注图像进行训练,并达到大量标注图像训练的模型效果。针对基于航拍数据的实时车流检测问题,本文利用Faster R-CNN的anchor机制和全卷积网络思想对YOLO算法模型进行了改进。利用全卷积网络思想改进YOLO的全连接层,提升YOLO的检测速度。通过anchor机制改进YOLO的目标框提取层,使其学习目标框的先验知识,从而学习到更多强特征,以提升模型检测精度。并利用多分辨率和多视角的训练方法对YOLO训练网络进行改进,提升检测模型的鲁棒性,使得模型更适用于现实复杂的场景。实验结果表明,本文提出的改进方法保证了实时检测效果,同时在复杂的场景具有88.8%的m AP。针对基于航拍数据的车流追踪问题,本文采用匹配式追踪方式。通过设计一个车辆匹配模型,即将视频中前后两帧的检测结果作为匹配模型的输入,根据检测框的尺寸、颜色直方图、位置等信息进行匹配,从而实现车流的追踪效果。