论文部分内容阅读
在智能多摄像机协作监控系统中,目标匹配是一个重要且研究难度较大的问题。对于大型的多摄像机网络,难以对摄像机进行标定,因而缺少可用的时空关联信息,在目标匹配的时候往往只能利用目标的外观信息。因此,本文提出了一种新颖的适用于多摄像机协作监控的目标匹配框架。该框架基于多特征融合和增量学习的方法,研究解决大型的多摄像机协作监控系统中,缺乏时空关联信息的目标匹配问题。我们首先提出了一种新的基于竞争机制的多特征直方图特征融合算法(CMFH)用于构建一个鲁棒的目标外观模型。在大型的监控场景中,由于光照、摄像头的拍摄角度、目标的姿态等的影响,目标的外观特征会随着时间的改变而变化,因此,为了提高识别率,需要利用新的数据对外观模型进行更新。本文研究提出了一种增量的多类别支持向量机(IGMSVM)算法用于外观模型的更新和目标匹配。IGMSVM方法在训练样本数量比较少的情况下,也能创建识别率较高的分类模型。为了验证所提出方法的有效性,我们应用了几个主流的公共视频数据集(CAVIAR、ISCAPS和VIPER)。这些数据集的测试数据是从不同的视角对同一个目标进行拍摄的,因此得到的目标所在环境的光照条件以及目标的大小、姿态等外观特征存在较大的差异。实验结果证明了本文提出的方法在计算效率、计算存储、匹配精度等方面优于已有的基于分类的目标匹配方法,可直接应用在实时的智能监控系统中。