论文部分内容阅读
目前,智能交通视频对交通安全及应急事件响应起着重要作用,但是受制于光线条件,计算机视觉处理方法多依赖于白天视频。而实际环境复杂,夜间路侧灯光的照射范围有限,导致只好依靠人工监视方式。论文围绕这一难题,依托“基于深度学习的收费车道车辆特征识别系统”省级项目,专题对夜间行车智能视频检测展开研究,其具有重要的理论意义和实际应用价值。论文分析了夜间行车智能检测所存在难点,诸如,车灯轮廓描述困难、地面反射光干扰、光线遮挡阴影、路面标识不易辨识等;解析了光流金字塔、Blob算法等常见视频处理算法,在夜间跟踪效果较差的原因;增强了夜间图像,突出车灯轮廓;讨论了特征融合卷积神经网络在目标检测、跟踪方向上的突出优势;受到特征融合CNN的算法的启发,研究了目标检测、目标跟踪、车灯检测的系列算法,设计了夜间车灯检测、夜间车辆检测、夜间行车参数检测模块,用于夜间行车视频检测系统。针对夜间场景变化敏感、车灯轮廓不清晰的问题,文中提出仿生甚高速区域卷积神经网络的夜间车灯检测方法。通过对视网膜水平细胞的自适应反馈和双极细胞的中心拮抗感受野进行建模,增强图像的对比度、亮度,突出前景车灯的轮廓信息;将增强后的图片输入给甚高速区域卷积网络(Faster RCNN)进行学习训练,得到特征融合后的检测模型用于夜间车灯检测。实验结果表明,文中提出的车灯检测方法具有较高的鲁棒性。针对传统车辆目标检测方法对夜间视频图片检测准确度不高的问题,论文利用了特征融合方法的框架EB实现了夜间车辆的检测,使用深度卷积网络层提取图片中丰富的特征,建议网络产生候选框并过滤掉其他目标,微调网络微调候选框以生成精确的位置和识别结果。优化了定位和分类,提高了夜间车辆检测的准确度率。针对夜间行车参数分析车辆跟踪误检高、易受遮挡等问题,文中分别对南京市白下区和连云港ETC 口的夜间视频进行了具体的实际应用分析。白下区夜间行车视频采用光流金字塔、Blob算法计算车速、车流量;ETC夜间行车视频采用了Siamese FC全连接孪生网络分析车速,结合卡方系数进行直方图匹配分析车流量,实现实时准确的夜间行车参数检测。综上,论文的创新点和特点在于:●提出了仿生甚高速区域卷积神经网络的夜间车灯检测方法,提高了夜间车灯检测的精度,达到82.75%。●优化了基于Evolving Box(EB)框架的夜间车辆检测方法,提高了夜间车辆检测的准确率,达到83.78%。●涉及了摄像机标定、目标跟踪、ROI区域检测等具体算法,实现了精确计数、准确测速的夜间行车参数功能。