论文部分内容阅读
在过去的几十年中,基于视觉的目标跟踪一直以来都是计算机视觉领域一个重要而富有挑战的任务,在视频监控、交通管理、人机交互、航空航天等领域都有很重要的应用。但由于视觉目标跟踪应用场景复杂,被跟踪目标表观受自身姿态、光线变化、遮挡以及背景干扰的影响很大,这些因素对鲁棒的视觉目标跟踪算法提出了很大的挑战,仍有非常大的提升空间。本文主要考虑在动态复杂场景下,单摄像头采集数据的情况下,从高维仿生信息学角度对运动目标的跟踪算法和分析算法展开的相关研究。本文的主要研究工作包括: (1)从高维仿生信息学出发,分析计算机视觉应用中特征提取方法,从全新视角分析其原理和关键点,并提出了特征提取的关键在于把原始像素空间映射到高维特征空间,然后从中提取出低维更紧致的特征表示空间的设计理念,并对现有特征学习模型的设计进行了总结,提出了改进的思路建议。此外,还从高维形象几何的角度分析讨论了主元分析和局部敏感哈希算法的几何意义。 (2)提出一种形变表观模型的简单高效的跟踪算法。现有的在线更新跟踪算法都是将跟踪看成是一个分类器,用人工标注正负的样本来更新训练模型。这种模型的缺陷在于对于训练样本属于目标的置信度缺乏准确的衡量。提出的算法采用连续的样本标注,并采用密采样。为了提高算法的精确度,采用了两层的回归算法模型,这种模型相对于传统的分类算法可以很好的减少背景对于模型的干扰,提高模型的精度和鲁棒性。 (3)提出一种充分利用目标表征信息的跟踪算法,这种算法从大量的视觉场景中自学习得到一个合适的特征表示。针对现有算法特征由人工设计缺失先验信息以及没有充分利用目标背景位置信息这两点不足,提出的算法表观模型充分利用了视觉场景中的大量先验信息,通过B-PCANet学习到合适的目标表示,同时在保证精度的要求下,对卷积滤波器采用二值加速改进提高算法在跟踪场景中的实时性要求。除此之外,为了配合提出的这种特征表示方法,采用了LPBoost在线多分类器来进行模型的在线更新,充分利用了目标背景的空间信息,提高了算法的准确率和稳定性。 (4)提出了一种基于深度卷积动态贝叶斯网络的视频目标行为分析系统,利用卷积神经网络端到端学习模型的特点,将传统的视觉目标检测识别分析等人工设定步骤融合为一体,利用视频序列之间的同源连续性通过主动学习对模型进行训练学习,从而避免了神经网络监督学习需要大量样本标注的问题,同时可以根据不同场景进行自学习,提高了算法在不同监控场景中的适应性。