论文部分内容阅读
随着机动车保有量的急剧增加,城市交通拥堵、污染、事故等问题频发,在愈加受限的通行空间条件下,必须通过智能交通手段以提升系统效率和稳定性。交通监测是研究各类交通问题的基础,感应线圈、地磁、路侧摄像头等传统交通监测技术均有检测范围小、场景单一的局限性,而且精度低、机动性差。近年来,无人机低空平台以其采集场景多样、视角广阔等优势受到了研究者们的青睐,但这种动态复杂的低空高分辨率无人机视频给传统交通信息处理方法,尤其是视频检测技术带来了巨大挑战。传统车辆识别技术不仅易受光线与复杂背景影响,而且难以实现交通参数自动化与精确化提取。如今,卷积神经网络在目标检测算法上得到了飞速发展,这种方法集成了特征自主学习与目标快速定位任务,具有鲁棒性强、精度高的优点。基于此,本文提出一种基于无人机视频与深度神经网络的交通参数提取及应用方法,具体研究内容如下。研究首先针对无人机视频特性提出了自动化图像校正方法,减轻了无人机本身抖动对视频采集产生的影响,使视频图像坐标误差保持在一个像素左右,保证了交通视频数据的稳定可靠;接着将视频数据通过标注生成训练集,使用深度神经网络目标检测算法进行模型训练,得到了识别精度高达99%的车辆检测模型;由于视频场景复杂多变,车辆检测模型难以保证百分百的检测精度,因此本文设计了基于车辆检测结果的自优化轨迹匹配算法,解决了车辆漏检、分类错误等问题,实现了对无人机视频车辆的自动化精确化轨迹提取。基于以上研究内容,本文利用车辆轨迹参数使用双向LSTM模型对车辆轨迹特征序列进行建模学习,实现了对16种车辆行为平均94%精确率的识别分类;并利用车辆制动率参数对车辆冲突行为进行可视化定量分析,实现对道路交叉口自动化交通安全评估,并结合专家评估结果验证了方法的有效性。结果表明,利用本文的深度神经网络算法能够对无人机交通视频进行自动精确的交通参数提取,该方法能够为车辆驾驶行为分析与交通安全评估等交通研究提供信息支撑,具有广阔的应用前景。