论文部分内容阅读
本文主要是研究在非特定场合下针对单目标的跟踪问题。给定一段视频,人为选择出将要跟踪的目标,然后在后续的视频中,对该目标的位置进行判断,进而得到目标准确的位置。
视觉跟踪是计算机视觉领域中非常热门的研究方向,同时在许多领域都有着广泛的应用,例如车辆、行人检测,增强现实以及3D游戏。虽然近30年来出现了许多优秀的算法,但视觉跟踪依然有很多问题没有得到解决,例如目标快速运动、复杂背景的干绕以及待跟踪目标部分或者完全被遮挡的情况。视频中这些问题都影响了跟踪算法的鲁棒性以及实时性。本文针对视觉跟踪中的难题,提出了利用组合式的框架进行跟踪的算法。其基本思想是结合多类框架进行检测、定位以及在线的更行。通过这种协同工作的模式,加强整个跟踪器的自适应能力,使得本算法能够在线的跟踪目标。
希望将本文中的算法应用到真实的视频序列中,需要同时考虑视觉跟踪算法的鲁棒性以及实时性。例如,鲁棒性不够,这会使得算法本身无法应对各种环境的变化。实时性不够,则算法针对快速运动的目标无法进行很好的跟踪。为了很好的解决这两部分的问题,本文结合了能够快速的在线学习以及更新的随机蕨检测器和能够精确进行匹配的隐形形状模型。在进行处理的时候,以随机蕨作为弱检测器对目标的搜索空间进行降维,在得到候选目标区域后,利用隐形形状模型进行精确定位。同时利用最终的输出结果分别进行在线的更新。最终,在公开的视频数据库上进行测试,通过与现阶段一些优秀的算法进行对比,证明了本框架的可行性以及鲁棒性。