论文部分内容阅读
视频目标跟踪技术是计算机视觉和图像处理领域的一个研究热点。针对视频目标跟踪问题,研究者们提出了一些跟踪算法,然而这些算法只是解决特定情况下的跟踪问题,并且在实际跟踪过程中也存在目标尺寸变化,场景复杂,噪声等多种干扰因素。因此,对后续提出的跟踪算法有了更高的要求,需要对这些问题进行深入地研究和解决。针对视频目标跟踪技术在实际应用中存在的问题,本课题依托国家自然科学基金项目(NO.61201118),并借鉴已有典型的视频目标跟踪算法,对跟踪算法展开基础性研究,完成的主要工作和创新点如下:(1)介绍了当前视觉跟踪领域的两种典型的算法:均值漂移(Mean Shift)和特征融合,阐述了这两种算法的基本理论及实现过程,并对它们的优势和缺陷进行了有效分析。(2)提出了一种噪声方差未知条件下的视频目标跟踪算法。在实际的跟踪应用中,无法获得过程噪声和观测噪声方差的准确值,如果设定的噪声方差不准确,跟踪精度会受影响,严重时会导致目标跟踪失败。本文将带遗忘因子的推广递推最小二乘法(Extended Forgetting factor Recursive Least Squares,EFRLS)运用到视频目标跟踪研究领域,首先,利用Mean Shift算法获得目标位置的初步估计,再利用EFRLS算法估计下一帧目标的位置,实验结果表明,该算法明显好于传统Mean Shift算法,并且与Kalman结合Mean Shift算法的跟踪性能相当。此外,在目标发生严重遮挡时,该算法优于Kalman结合Mean Shift算法,具有较好的跟踪性能。(3)提出了一种基于BRISK(Binary Robust Invariant Scalable Keypoints,BRISK)特征匹配的视频目标跟踪算法。首先,手动标定感兴趣目标区域,提取当前帧和下一帧的BRISK特征和描述符;然后,根据汉明距离获取匹配的BRISK特征点对,并且利用RANSAC(Random Sample Consensus,RANSAC)算法去除错误的匹配点对;再利用目标区域内的正确匹配点求出当前帧和下一帧重心坐标;最后,根据重心坐标重新张成目标跟踪窗口,以此循环完所有的视频序列。实验结果表明,该算法比同等条件下的SIFT(Scale Invariant Feature Transform,SIFT)、SURF(Speeded Up Robust Features,SURF)特征提取算法较为快速,相比传统的Mean Shift算法,在目标存在遮挡的情况下更具有优越性。