论文部分内容阅读
视觉目标跟踪是很多智能视频处理应用的关键技术,本文对复杂场景下的视觉目标跟踪进行了深入研究,提出了三种各有侧重点的目标跟踪算法。 提出了一种基于CNN特征的自适应ELDA(exemplar-based linear discriminant analysis)视觉目标跟踪算法。使用CNN特征代替传统特征提升了模型的判别能力,根据CNN网络结构的特点提出了两步法提取目标特征,极大地提高了CNN特征提取效率。另外,一般基于检测的目标跟踪算法中训练的是基于类别的分类器,在有相似或同类物体干扰的场景下容易出现误跟踪,针对该问题本文使用基于实例的线性判别分析模型训练了一个基于目标实例的分类器来改善同类物体的干扰。 提出了一种结合超像素的自适应多高斯目标跟踪算法。算法使用粗粒度超像素分割实现前背景分离,并使用得到的超像素建立带有距离权值的多高斯模型,通过光流法估计超像素的运动。使用细粒度超像素对待搜索区域分割得到具有类内一致性的超像素小块,再对小块进行前背景分离实现目标跟踪。 提出一种基于深度梯度一致性的目标跟踪算法。首先详细介绍了深度梯度的意义,然后将其与颜色图相结合实现一种目标跟踪算法。算法中分别建立了基于深度梯度图和颜色图的检测与运动估计四个子模块,通过四个子模块共同得到最终的跟踪结果,并使用深度直方图实现遮挡检测及遮挡处理。 三个目标跟踪算法均在受到视觉目标跟踪领域内广泛认可的数据集上进行了大量的实验,实验结果证明了所提出算法在复杂场景下的有效性和鲁棒性。