论文部分内容阅读
随着图像传感设备的发展和普及,基于视频流数据的目标跟踪应用在生产和生活中占据了越来越重要的地位。由于跟踪过程中存在许多的不确定因素,故目标跟踪也是模式识别与人工智能领域中十分具有挑战性的课题之一,例如:在复杂的背景条件下,当背景与被跟踪目标在外观上具有较高的相似性时,跟踪算法对目标位置的判断将会受到极大的干扰;严重的物体遮挡、目标外观的快速变化,这些也都会使目标在图像数据中产生明显的变化,从而导致跟踪算法丢失目标。对于多个目标的跟踪而言,除了上述的问题之外,各个目标外观的相似性、相互作用和相互遮挡都会给最终的跟踪带来难度。因此本文的研究目标是:从全局角度考虑解决多目标跟踪过程中的目标遮挡、外观变化等问题,同时有效提高多目标跟踪的准确率。具体方法是,把所有目标作为一个整体,综合各个目标的检测结果、跟踪结果和他们之间的相互位置关系,从而推理出最优的多目标跟踪结果。本文的主要贡献是:1)提出了基于全局的结构推理联合概率函数来描述多目标跟踪,有效的融合了检测、跟踪结果以及各目标之间的空间关系信息,解决了多目标跟踪的问题,提高了跟踪的准确率;2)提出了新的策略融合在线训练检测器以及离线训练检测器,提高了检测器的鲁棒性,从而使其有效提高跟踪结果的准确率。本文提出的跟踪模型工作流程为:首先对视频中每一帧图像,利用在线检测器以及跟踪器来生成大量的候选目标位置;然后,利用离线训练的检测器对这些候选位置做量化评分;此后,利用提出的联合概率函数来总体描述全局的跟踪情况,该函数包括:各候选位置的量化评分情况以及各个目标之间的空间位置关系;最后,利用置信传播算法求出联合概率函数的最优解,推理出最终的跟踪结果。本文利用在实验室环境下录制的视频数据以及常用的跟踪测试集CAVIRDATA、PETS中的不同片段进行测试,从多个实验结果可知,多目标跟踪过程中的目标遮挡问题以及外形变化问题都得到了很好的解决。此外,本文所提的结构性跟踪模型还可应用于分析单目标的结构性信息或者多目标之间的空间结构关系。