论文部分内容阅读
随着智能视频监控系统的高速发展,近年来,人们对视频监控系统的智能性要求日益提高。多摄像机网络能够监控更广阔的区域,正在逐渐被重视。但是,从经济、资源等方面的考虑,不太可能布置大量的摄像头覆盖所有监视区域。因此,无重叠视域多摄像机情况下的目标跟踪就成了广域视频监控研究的主要内容之一。无重叠视域多摄像机间的目标匹配作为跟踪的重要前提和必须步骤,也成为广域视频监控研究中的重要研究内容。本文针对无重叠视域多摄像机监控环境中不规则扰动背景的运动目标检测问题、固定单摄像机下的目标跟踪问题和多摄像机间的目标匹配问题进行了深入研究,取得了如下成果:1.针对混合高斯背景模型易将场景中的不规则扰动背景成分当作前景目标区域,造成误检率较高的问题,本文提出了一种融合区域运动估计的改进算法(ME-GMM)。该方法首先利用混合高斯背景模型有效应对场景中规则扰动并对前景目标区域进行预提取,然后通过区域运动估计进一步分析各区域的运动特征来区分不规则扰动背景成分和运动前景目标区域,从而完成实际监控场景的运动目标检测。在数据集I2R[58]实验结果表明,与现有算法相比,本文提出的算法能更好地检测不规则背景扰动情况下的运动目标。2.针对固定单摄像头视域内基于单一特征的目标跟踪算法容易发生目标位置偏移、目标丢失等问题,本文提出了一种基于多特征协方差矩阵的目标跟踪算法。该算法首先利用ME-GMM运动目标检测算法提取出每一帧的运动目标区域并去除视频流中的背景成分,有效避免了跟踪过程可能发生的目标位置偏移;然后运用多特征协方差矩阵对连续帧间的目标区域进行区域匹配,并依此分析目标在连续帧间的运动状态预测目标在下一帧中可能出现的位置,有效克服了因遮挡导致的跟踪丢失问题。在数据集PETS2009[59]上的实验结果表明,与基于单一特征的粒子滤波的跟踪算法相比,本文提出的目标跟踪算法目标位置更准确,跟踪丢失率更低。3.针对无重叠视域中目标在不同摄像间外观容易发生变化,使得目标在多摄像机间难以获得准确匹配的问题,在分析颜色不变性特征的基础上,提出了一种基于AP聚类算法的形状上下文目标表现模型。该模型首先通过AP聚类算法确定目标图像在log颜色空间的聚类中心和各像素所属的类别,然后将所有聚类中心作为参照点集合生成形状上下文描述子集合,最后通过计算无重叠视域多摄像机监控环境下获取的不同目标表现模型之间的EMD距离实现相同目标的匹配,降低了光照变化、角度变化和尺度变化所带来的匹配误差。在数据集VIPeR[60]的仿真实验证明,本文提出的目标表现模型可以有效实现无重叠视域多摄像机监控环境下的目标的匹配。