论文部分内容阅读
可视化目标追踪是计算机视觉领域中一个重要的研究方向,并且在许多实际的应用中(如视频监控,视频场景的理解,交互视频处理等)起着至关重要的作用。目前,研究人员已经提出了大量的追踪算法,在不同的应用场景下,均取得了一定的成功。但是由于所追踪目标在经历过较长视频序列时,遮挡、目标外观的变形、环境的光照等都会发生变化,因此目标追踪问题仍然具有很强的挑战性。本文主要从图像稀疏表示出发进行深入的研究和探讨目标追踪模型。主要内容分为以下几个方面:●提出了一种局部稀疏表示与多示例学习联合的追踪方法,其主要思想是将目标图像稀疏编码作为样本特征数据,学习一个多示例分类器来实现目标追踪。首先,通过来自第一帧目标图像所构建的过完备字典,计算出对应的局部目标图像稀疏编码。然后,将来自目标图像的稀疏编码作为多示例的样本数据,学习一个多示例分类器。最终,通过所构造的带有局部稀疏编码特征的多示例分类器完成追踪过程中背景与目标的区分。除此之外,为了进一步减轻由于更新分类器与字典过程中错误的累积所带来的追踪漂移现象。本文设计了两步追踪方法,第一步通过动态多示例分类器估计可能的候选目标位置;第二步通过静态多示例分类器确定最优的目标位置。●提出了一种基于多尺度块的目标稀疏表示模型,计算在不同尺度块下,目标图像块的稀疏系数,由不同的尺度块稀疏系数组成目标外观表示模型。最终将多尺度块目标相似度函数整合到粒子滤波器来完成视频目标的追踪计算。与其他方法相比,本文所提出的这种带有多尺度下的目标外观表示更为健壮与有效。●提出了一种基于稀疏表示的多模型联合追踪方法。方法的核心思想是在图像局部稀疏表示下,联合产生式与判别式追踪模型来完成目标外观的表示,并结合粒子滤波实现目标追踪。首先,在判别式模型中,目标图像被相应的稀疏编码来表示,通过对稀疏编码的学习,获得一个线性分类器来识别背景图像和目标图像。其次,在产生式模型中,目标外观由相应的稀疏编码直方图表示,目标模板与候选模板之间的相似度通过稀疏编码直方图计算。最终,候选目标的状态估计通过一个整合了判别式模型以及产生式模型的联合粒子滤波器来完成。●提出了一种基于多尺度块稀疏编码直方图的目标外观表示模型,为目标外观在多尺度下的稀疏编码直方图之间的联合表示提供了新思路。首先,目标的外观在不同的尺度下,通过相对应尺度的稀疏编码直方图来表示;然后,利用基于稀疏编码直方图来测量候选目标与模板目标之间的相似度。最终,不同尺度下的相似度被整合到粒子滤波器中以实现视频目标的位置估计。此外,为了抑制由于遮挡而引起的追踪目标漂移现象,通过目标在多尺度块受到遮挡情况时的空间结构信息,提出了一个新的处理遮挡策略来提高目标追踪的精度。