论文部分内容阅读
近年来,随着视频采集设备在智能交通系统中的广泛使用,智能视频监控技术已成为智能交通系统采集信息的重要手段,人们对视频自动分析处理的需求也日益增加。视频目标跟踪和识别技术作为视频监控技术的重要的基础性问题,得到了广泛的研究。然而,在城市交通场景中仍存在许多问题有待解决:一方面,由于光照、天气、阴影、遮挡、姿态、干扰物等原因,使视频目标的跟踪和识别面临着诸多挑战;另一方面,人们对于监控系统的功能有了更多更高的要求,需要算法提供更为准确和丰富的信息。因此,本文开展相关研究具有重要的理论意义和应用价值。 论文的研究工作集中于如何在提取鲁棒性有效图像特征的基础上,利用概率图模型(Probabilistic Graphical Models,PGM)的优势,建立能够融合利用图像多特征和时空上下文信息的跟踪和识别模型。因此,本文以车辆和行人等典型的交通目标为研究对象,基于计算机视觉和概率图模型等相关理论,开展了目标跟踪和目标识别问题的研究,力图实现区域层面的目标跟踪,并解决传统跟踪模型中误差的单向传播问题和目标遮挡问题,提高车型识别的稳定性和鲁棒性。本学位论文的工作和贡献主要包括以下几个方面: 1.提出融合时空上下文信息的建模方法,对目标进行区域层面的跟踪。研究以图像中的像素为结点建立动态条件随机场模型,从而将区域层面的目标跟踪问题转换为动态条件随机场中结点标记的最大后验推理问题。从时间连续性、空间运动一致性和局部空间运动一致性三个方面定义特定的势函数,通过概率分布形式描述像素之间的时间和空间上下文关系,最后使用置信度传播(BP)算法推理,获得目标的区域跟踪结果。实验表明,该算法可以实现区域层面的目标跟踪,提高了跟踪的准确率。 2.提出基于动态耦合条件随机场(Dynamic Coupled Conditional Random Field,DcCRF)模型的区域跟踪方法,主要针对遮挡问题和更复杂的交通场景。研究利用前景分割和目标跟踪的相关性,通过构建DcCRF模型联合建模前景标记和目标标记任务,从而构建一个统一的概率框架,实现了联合的前景分割、目标跟踪。DcCRF模型融合利用了图像多特征和时空上下文信息,并通过融合目标的表观和运动信息,建立了图模型的势能函数。实验表明,该算法解决了传统跟踪模型误差的单向传播问题,并且在遮挡情况下也能取得较好的跟踪效果,进一步提高了跟踪的准确率和鲁棒性。 3.提出基于动态贝叶斯网络模型的车型识别方法,主要针对视频图像进行车型识别。针对智能交通系统中的车型识别问题,如何提取车辆的多种鲁棒性特征对车型的正确识别非常关键。本方法中,我们首先提取了进行车型识别的原始特征,然后进行特征选择挑选出一组最有效特征,从而进一步降低特征空间维度和计算代价。最后,我们通过利用动态贝叶斯网络模型进行序列数据建模,可以综合利用多特征及动态时序信息,提高目标识别的准确率。实验表明,该方法可以对交通监控视频中检测到的车辆进行准确的车型识别,同时相较于传统基于单帧图像识别的方法,该方法具有较高的准确率和鲁棒性。 4.利用车辆检测、跟踪和识别技术,实现智能交通监控系统应用,可以对交通参数进行有效提取,实现对车型的分类。本文系统对白天和夜间场景分别考虑,通过利用前景检测、目标跟踪、虚拟线圈等技术,进行车辆的检测和识别,同时在利用虚拟线圈方法时,通过动态调整背景更新频率、建立线圈协同工作机制,解决了传统方法中存在的车辆误检、虚警等问题。基于前面的研究工作,该应用系统利用车辆的多种特征,实现了基于动态贝叶斯网络的车型识别系统。在真实交通场景中的实验测试表明我们的方法和系统可以对有效提取交通参数并实现车型分类。