论文部分内容阅读
视频与图像是人们获取目标外观、色彩等特征的重要信息源。如何使机器能够像人类一样自主的感知、获取目标并对相应视频或图像的内容进行解析,是计算机视觉的重要研究方向。目标跟踪作为计算机视觉相关领域中的一个重要研究课题,与智能交通、自动控制等应用场景密切相关,用于使系统长期稳定的捕获相应目标。良好的目标跟踪算法需要有效的目标外观模型、完善的理论基础以及高效的求解方法。目前研究文献表明,研究人员在目标跟踪领域取得了大量的研究成果,提出了许多相关理论与算法,但仍面临着巨大的挑战,由于视频序列中的丰富信息以及复杂的场景,使得各算法难以鲁棒地对目标进行跟踪。在面对视频序列中目标的遮挡、非共面旋转以及移动模糊等不利因素的挑战时,各算法常出现目标的漂移或丢失现象。因此,实际应用中各算法通常难以有效地胜任上述复杂场景下的目标跟踪任务。为解决上述问题,使算法能够有效应对各种不利因素对目标区域信息的污染以及对视频质量的干扰,本文基于粒子滤波框架,进行如下目标跟踪的研究:(1)我们提出一个多任务反向稀疏表示(MTRSR)模型与AdaBoost分类器相结合的基于合作模式的目标跟踪算法,以有效应对复杂场景下因移动模糊以及遮挡等因素对目标梯度信息的改变,结合一个判别性的字典来估计每一个候选目标的权值。具体方法如下:首先,通过多任务反向稀疏表示(MTRSR)模型求得模糊核k并以此得到模糊目标模板集,通过相应的重建误差计算各候选目标的置信度;其次,对每一个目标模板提取HOG特征来获得相应的判别性字典,用以计算各候选目标的权值,并基于一个AdaBoost分类器计算出相应目标的置信度;最终,将权值与二者置信度乘积和的最大值作为当前帧捕获的最佳目标。通过与相关主流算法在开源数据集上进行对比实验,本算法的覆盖率相较于第二位的L1APG算法平均提高了12.2%,中心位置误差平均降低了22.4个像素。表明本算法能够很好地应对复杂场景下因移动模糊及遮挡导致的目标外观信息的改变,有较好的精度与鲁棒性。(2)基于粒子滤波框架下的目标跟踪算法,其计算代价主要来自对目标特征的提取、模型的训练与更新。为使算法能够有效应对因目标遮挡、光照变化等因素对视频质量的干扰及其引起的目标外观信息的剧烈变化,我们提出一个基于鲁棒外观模型的目标跟踪算法。首先,通过计算目标区域的全局以及局部Fishier向量得到对目标区域的具有判别性的外观描述,并训练一个半监督线性核分类器计算各候选目标的置信度以区分前景目标与背景区域。其次,由于目标外观变化给目标区域带来了严重的污染,干扰了目标区域的原有信息。因此我们抽取目标模板集与候选目标集的局部子块,根据各子块的污染程度计算目标子块与模板子块之间的相似度,由此得到整个候选目标与模板集的相似度。而后依据各候选目标与模板集的重建误差,计算出各候选目标的权值。最终,选取权值、置信度与相似度乘积的最大值所对应的目标作为该帧下捕获的最佳目标。实验结果表明,相比其他算法,本算法有效的提升了跟踪的精度,能够较稳定的完成目标跟踪任务。综上所述,在OTB数据集上,本文方法与目前主流目标跟踪算法进行实验对比,结果表明本文方法具有较高的跟踪精度,能够有效、鲁棒的应对复杂场景下的目标跟踪任务。在面对目标的严重形变以及剧烈的尺寸变化时,基于鲁棒外观模型的目标跟踪算法仍表现不足,虽能准确跟踪到目标,但目标覆盖率不佳,有待进一步探究其原因并改进。