论文部分内容阅读
目标跟踪是计算机视觉领域的重要内容和研究热点之一,在视频监控、智能交通、机器人导航、智能车辆驾驶辅助和人机交互等领域有着广泛的应用。尽管在过去几十年里在线目标跟踪技术的研究已经取得了很大的进展,但是在复杂动态场景下,由于被跟踪目标会发生更多不受控的表观和运动变化,因此设计一个鲁棒、稳定和精确的在线跟踪算法仍然是一个富有挑战性的课题。本文围绕着复杂动态场景下的视频目标跟踪问题开展研究工作,主要研究内容和成果包括以下几个方面:首先,针对复杂动态场景下使用固定的特征或特征组合无法对待跟踪目标的表观变化进行准确描述的问题,提出一种基于特征自适应选择的鲁棒跟踪算法,该算法可以根据目标和背景的变化情况自适应地选择可区分性好的特征来描述目标。此外,分别针对在线AdaBoost算法的候选特征池特征鲁棒性差以及分类器在更新过程中容易受到错误样本影响的问题进行了研究,提出了基于颜色与金字塔梯度方向直方图特征相结合的特征池构造方式,并对每帧图像获得的跟踪结果进行遮挡检测以避免漂移现象的发生。实验结果表明,当目标受到光照变化、尺度缩放、部分遮挡、杂乱背景干扰以及姿态变化等情况影响时,与其它算法相比本文算法具有更好的鲁棒性和准确性。其次,针对传统的均值漂移跟踪算法中目标表观模型单一且缺乏必要的更新策略的问题,提出了一种基于多表观模型的多尺度均值漂移跟踪算法。该算法利用稀疏主成分分析技术从特征模板集中获取关于目标的多个表观模型,并分别以每个模型为参考模板在多尺度下并行运行均值漂移算法。此外,针对梯度直方图特征在均值漂移跟踪框架下容易陷入局部极值的问题进行了研究,并引入广义梯度矢量流特征来描述目标的形状信息。通过与其它跟踪算法的对比实验表明,本文算法在应对姿态变化、杂乱背景干扰以及快速运动等有挑战性的情况时都具有很好的稳定性和鲁棒性。再次,针对复杂动态场景下目标跟踪过程中可能出现的形变、运动和遮挡等问题,分别构建了基于超像素局部信息的判别式模型和基于颜色与梯度全局信息的产生式模型,通过两者的结合提升了对目标表观特征描述的可区分性和不变性。此外,提出一种基于样本二次判别的字典更新策略,从而可以避免使用错误的样本去更新字典。对比实验表明,本文算法在目标发生姿态变化、部分遮挡、以及背景干扰等情况时都能获得很好的跟踪结果。最后,针对基于稀疏表示的目标跟踪算法在跟踪过程中只考虑到目标的表观特征,却忽略了目标内部的空间关系的问题,提出一种基于局部特征霍夫投票的鲁棒跟踪算法。该算法在广义霍夫变换框架下,分别针对如何建立投票小块与码本中向量的匹配关系,以及如何为每个投票小块分配权重的问题进行了研究。前者通过稀疏表示理论来解决,后者依据投票小块在图像上的类别分布显著性和码本中与其有匹配关系的向量的投票显著性建立投票权重。实验结果表明,与其它算法相比本文算法在应对光照变化、运动模糊、快速运动、以及杂乱背景干扰等情况时具有更好的稳定性和鲁棒性。综上所述,本文针对复杂动态场景下的在线视觉目标跟踪研究中遇到的各种表观和运动变化,提出了四种鲁棒的目标跟踪算法,并通过实验验证了新算法的鲁棒性和精确性。