论文部分内容阅读
智能交通是计算机视觉、机器学习、交通运输领域的热门课题,它涉及到多个学科的交叉,具有重要的学术研究价值和极强的实用背景。本论文的研究背景是“混合交通下行人安全状态的识别”项目,重点研究运动目标的实时、鲁棒的跟踪技术。运动目标的形态和速度变化、环境光照、复杂背景、目标间的遮挡、以及监控摄像机的抖动等都可能对准确的跟踪造成障碍。因此,尽管多目标跟踪在视觉领域已经被持续关注了几十年,出现了众多的算法,但是如何稳定、鲁棒又快速地同时跟踪多个目标仍然是一个尚未很好解决的问题。本文结合远景和近景,探索全天候的混合交通条件下,基于视觉感知的行人及车辆跟踪模型。所谓远景是指以俯视视角拍摄的,视野广阔的视频,该视频的特点是监视范围广,能从宏观上分析物体的行为及物体间的空间关系,缺点是缺乏细节信息,不便于做细致分析。所谓近景是指以距离物体较近的平视视角拍摄的视频,该视频的特点是细节丰富,便于进行细致的行为分析,缺点是视野不够广阔,难以从宏观上分析物体间的空间关系。本文的主要贡献有:1.在检测阶段提出了改进的前景提取算法。我们的改进体现在两个方面:是以自适应计算出的概率更新前景点,这一改进加快了背景模型更新速度,有效地减少了错误的前景噪声;二是改进了基于区域增长的连通区域提取算法,有效地减少了搜索量,从而提高了算法效率。2.在跟踪阶段,为有效地处理遮挡,我们显式的检测了目标的分裂与合并,并在此基础上对基于位置紧邻的数据关联算法加以改进,提出了快速的多目标跟踪算法。此外,我们还对多假设跟踪算法进行了改进,大大提高了速度估计和位置预测的准确性。3.我们建立了远景和近景不同视角的交通监控视频数据库,实现了远景和近景的空间对应,并实现了远景与近景相结合的,实时、鲁棒的行人、车辆跟踪系统。具体来说,在远景视频上使用较粗略的视频分析算法从而得到宏观上的物体的位置及速度,这一处理过程通常速度较快,然后在此结果的基础上对近景视频进行更细致的分析,将远景识别得结果进一步加以确认,从而实现远景处理的效率与近景处理的准确率的结合。