论文部分内容阅读
近年来,随着计算机硬件处理性能的高速提升与计算机视觉和模式识别理论的大力发展,人们对于道路交通智能安防系统的需求在不断加大,如何在监控视频中对道路上的行人、车辆等交通参与者进行识别和跟踪已成为学术界和工业界研究的热点之一。传统的相关滤波跟踪方法不能很好解决物体的尺度缩放问题,并且存在严重的边界效应。另外,传统的Siamese-FC网络预测时将目标区域与搜索区域进行卷积,容易受到背景物体的干扰。为了解决上述问题,本论文重点研究基于道路监控视频中交通参与者的跟踪方法。针对传统相关滤波方法的尺度缩放问题和边界效应问题,本论文给出了基于局部区域的矩形框回归相关滤波道路交通场景目标跟踪方法(Box Regression Correlation Filter,BRCF),主要包括:1)基于局部区域的正负样本挖掘方法,在加强分类器分类能力的同时有效减少边界效应;2)结合关键点匹配尺度预估计的矩形框回归计算方法,可以预估计出目标物体尺度缩放范围,并通过矩形框回归进行微调,计算快速且高效;3)基于目标尺度的自适应高斯窗函数和基于滤波响应分析的自适应模型更新策略,用高斯窗函数紧包裹目标区域,有效减少频谱泄漏问题,并对滤波响应进行数值分析,判断跟踪环境的优劣,自适应更新模型。实验结果表明:本文BRCF方法能有效应对物体尺寸变化问题和背景区域干扰等恶劣情况,在本实验室交通数据集下成功率和准确率均比尺度空间判别跟踪方法(Discriminative Scale Space Tracking,DSST)高出了大约2个百分点。在每秒处理帧数(Frames Per Second,FPS)方面,本文BRCF方法比DSST高出了将近40FPS,可以达到实时处理的效果。针对Siamese-FC网络易受到背景干扰的问题,本论文提出了基于背景区域语义特征注意力模型的全卷积孪生神经网络跟踪方法。该算法以相似度深度神经网络为背景,辅以一种基于人类注意力能够自选择特征通道的网络结构,主要包括以下内容:1)基于样本模版与背景区域的语义分离方法,将初始帧中的目标与背景分开,使样本模版可以以任意尺度输入网络,增加网络的灵活性;2)融合注意力模型自适应选择卷积特征的全卷积孪生神经网络结构A-Siamese-Net,用背景区域特征生成语义权重,用于自适应选择特征图通道度量图像块之间的相似度,使得自选择的特征图可分性更高;3)一种两阶段法的模型训练方法,先让模型在大规模公开数据集上预训练,再用交通数据集联合训练,主要解决了道路交通数据集不充足的问题。实验结果表明:本论文提出的方法在不提高跟踪时间的前提下提高了跟踪的准确率,加强了目标物体在密集背景区域情况下算法的鲁棒性。A-Siamese-Net在交通数据集上整体的成功率比Siamese网络高出了10个百分点,整体的准确率比Siamese网络高出了8个百分点。