论文部分内容阅读
视频目标跟踪是计算机视觉领域的研究热点之一,它在人机交互、自动监视、视频检索、交通监测以及车辆导航中有着广泛的应用。实现鲁棒精确的视频目标跟踪又是一个研究难点,因为首先,目标的外观在不断变化;其次,在跟踪过程中经常会发生模板漂移现象,即模板逐渐被背景物体占据;再次,目标在跟踪过程中会被遮挡,跟踪算法很难判断目标外观的改变是目标本身还是遮挡物造成的;另外,目标被部分遮挡时,跟踪精度通常会大幅下降;最后,在目标被完全遮挡的情况下,很难准确判断目标重现的时刻。研究者针对上述难题已经提出了许多算法,但是这些算法性能都不够理想。本论文提出的目标跟踪算法较好地解决了上述问题。本文算法采用带掩蔽的模板匹配来定位目标,以屏蔽遮挡物的干扰。由于其中的模板掩蔽是根据目标的遮挡情况生成的,因而有效判断目标的遮挡情况是关键。本文算法融合了时空上下文、目标外观模型和运动矢量所提供的目标遮挡信息,显著增加了辨别遮挡区域的鲁棒性。由于根据前一帧的遮挡情况得到的模板掩蔽可能在当前帧中不再准确,因而带掩蔽模板匹配的结果经常会有误差。本文算法利用目标未被遮挡的区域来校正目标定位结果。在得到目标的准确位置后,需要更新模板。更新模板的关键是要尽量抑制模板漂移。本文算法在Kalman外观滤波器中显式建模漂移噪声,给予较易产生模板漂移的图像区域较低的更新强度,从而在更新模板和抑制漂移之间取得了最优的平衡,提高了跟踪精度。对于全遮挡,本文算法利用干扰物和重现的目标具有不同的模板匹配误差和前向匹配误差的特性,鲁棒地判断全遮挡的结束时刻。本文算法还对目标坐标变换参数的变化率进行Kalman滤波,且滤波器的模型噪声功率在线估计,以有效预测目标在下一帧中的几何状态并据此设置初始搜索点,进一步提高鲁棒性并降低计算量。大量基于实景测试视频的定性实验和基于合成测试视频的定量实验表明,本论文提出的算法显著提高了视频目标跟踪的鲁棒性和精确度。