论文部分内容阅读
随着人工智能的发展,视频目标跟踪技术已经成为计算机视觉中一个重要的研究方向。它在智能监控、交通检测、人机交互、行为识别、军事、医学等领域有着了广泛的应用。尽管近年来视觉跟踪算法研究取得了长足的进步,但是复杂场景中存在的光照变化、严重遮挡、尺度变化、非刚性形变、运动模糊、背景杂波等因素引起的目标外观的变化,使得设计一个在各种复杂场景的情况下能够准确跟踪的算法仍然是一项挑战性的难题。最近,基于粒子滤波框架下的低秩稀疏表示的目标跟踪算法受到研究者们的广泛关注,这类跟踪算法首先采用模板字典来构建目标的外观模型,然后把候选目标表示为模板字典的线性组合,最后利用稀疏表示理论或者低秩表示理论来求解候选粒子的线性系数,具有最小重构误差的候选粒子被认为是当前帧的跟踪结果。这类算法己经被证明能够有效处理遮挡和目标外观的变化,对各种复杂场景下的目标跟踪具有较好的鲁棒性。本文在粒子滤波框架下,基于低秩稀疏表示理论从外观模型的不同角度提出了两种鲁棒性的目标跟踪算法。(1)针对整体外观模型的跟踪算法在遮挡或者非刚性形变的情况下容易发生漂移甚至跟踪失败的问题,本文提出了一个基于局部多任务联合稀疏表示的视频目标跟踪算法。相比整体的外观模型需要目标对象的完整信息不同,局部块的外观模型能够利用目标可见部分(未被遮挡部分)的信息或者发生形变小的局部块信息确定目标的位置。该算法首先对采样得到的每个候选目标区域采用相同的分块方式进行分块,把所有候选目标同一位置的局部块观测向量组成的观测矩阵表示为目标模板相应局部块的线性组合。然后基于多任务学习和稀疏表示理论设计一个目标的局部多任务联合稀疏表示模型。为了捕获候选粒子中的离群粒子,模型中的系数矩阵被分解成两个不同稀疏类型的矩阵。采用加速近端梯度算法(APG)求解系数矩阵。最后结合离群粒子检测机制和目标模板更新机制实现目标的鲁棒性跟踪。考虑到边缘的局部块包含部分背景信息,该算法给边缘的局部块重构误差赋予较低的权重,选择候选目标所有局部块加权的重构误差之和最小的作为当前帧的跟踪结果。(2)基于单一特征描述目标能力较弱,不同特征描述目标能力有所差别这个事实,本文提出了一个基于多任务多视图联合低秩稀疏表示的视频目标跟踪算法。该算法首先提取亮度、颜色、边缘、纹理四种互补的视觉特征来描述目标的外观,把所有候选目标同一种视觉特征组成的观测矩阵表示为相应特征字典的线性组合。然后基于多任务学习和低秩稀疏表示理论建立一个目标的多任务多视图联合低秩稀疏表示模型。在模型中,系数矩阵被分解成两个矩阵之和,对一个矩阵施加低秩和行稀疏约束,低秩属性用来有效利用粒子以及视图之间的内在关系,对另一个矩阵施加列稀疏约束用来捕获离群粒子。采用不精确拉格朗日乘子法(IALM)求解系数矩阵。最后结合离群粒子检测机制和目标模板更新机制实现目标的鲁棒性跟踪。在大量具有挑战性的视频上测试提出的跟踪算法,并与七种流行的跟踪算法进行比较,结果表明本文提出的算法在遮挡、光照变化、姿势变化、尺度变化、背景杂波等情况下具有较好的鲁棒性。