论文部分内容阅读
目标追踪的研究是计算机视觉领域中一个重要的研究分支与基本问题,也是行为识别、运动分析等众多高层应用的重要基础,也能为智能监控、人机交互、交通运输管理、医学图像处理等领域提供数据基础,因此,对该问题进行深入的研究具有重要意义与实用价值。运用域适应学习的思想解决计算机视觉的目标追踪问题,能够利用线下的大量图片的视觉知识以及使得在更新分类器过程中不再单一地利用当前帧的样本数据。本论文在对传统目标追踪算法进行分析的基础上,重点研究基于域适应理论的在线目标追踪算法,具体工作如下:1.我们详细描述与分析了基本的经典在线目标追踪算法的核心部分,即训练区分背景与前景分类器的学习算法,主要包括TLD追踪算法中的P-N学习理论、MIL追踪算法中的多实例学习理论以及OBT目标追踪中的在线boosting算法。通过深入学习在线目标追踪算法的核心,发现其不足,结合目标追踪的实际情况提出基于域适应学习的目标追踪的必要性与可行性。2.我们提出基于实例适应的在线目标追踪算法。本文将目标追踪在线训练学习分类器看作域适应学习问题,将先前追踪的图像序列的目标实例知识迁移到第t-1帧图像中。根据这些实例知识与第t-1帧图像的目标信息在线训练一个分类器,利用追踪-检测的方法来对第t帧图像进行目标定位。3.我们提出基于分类器适应的在线目标追踪算法。借鉴目标检测的方法,基于分类器适应的在线目标追踪算法利用线下的图片数据集训练一个分类器。同时,我们利用当前追踪视频信息在线训练与更新一个在线的分类器。根据线下分类器与在线分类器来对追踪的图像序列进行检测,然后再依据初始化时选定目标的特征进行目标定位。4.我们实现了基于视觉字典适应的在线目标追踪算法。我们在线下提取大量图片的SIFT特征描述子,并学习一个完备的视觉字典用以表征线下大量图片的视觉信息。在追踪过程中,由于线下学习得到的完备视觉字典具有物体的普遍信息。我们可以通过稀疏编码的方式,利用线下学习得到的完备的视觉字典集对在线追踪的目标物体进行特征表达。在第一帧图像中收集正样本与负样本数据并初始化分类器。同时,我们运用贝叶斯框架对目标追踪任务中目标的运动状态进行推导。为了克服追踪过程中的目标外形与背景的变化与缓和分类器更新过程中出现的目标漂移问题,我们适时地更新分类器与维持最初的分类器作为一个检测器。在每一视频帧,目标的观测模型都是通过联合检测器与在线的分类器构造得到。综上所述,本文详细分析与实现了三种基于不同类型的在线目标追踪算法。同时,我们在不同的数据库上进行实验验证以及与其它方法进行比较。实验结果表明可以将实现大量图片或者非当前视频帧的视觉知识迁移到在线的目标追踪,这种视觉知识的迁移是有益的。