论文部分内容阅读
人体跟踪是计算机视觉中的重要研究课题,在安全监控、智能交通和军事等领域具有广泛的应用。目前,大部分人体跟踪系统和方法是基于单个视频图像序列的跟踪,其跟踪结果易受光照变化、目标遮挡和复杂背景等因素的影响。近年来,随着能采集RGB-D序列的深度传感器的出现,使得利用不受光照和表观因素影响的深度信息来提高视频跟踪的效果成为了可能,目前这方面已经取得了一些研究成果。但针对RGB-D这种新型的序列数据,如何描述人体的特征以及如何有效融合表观和深度信息,实现鲁棒的人体跟踪,还需要深入研究。 本文针对基于RGB-D序列的人体跟踪问题,主要在人体的表观和深度特征的表示方面展开了研究,提出了相应的特征表示和融合方法。同时,针对人体跟踪的目标遮挡问题,提出了多视RGB-D序列的协同跟踪方法,实现了鲁棒的人体跟踪和定位。具体的研究工作如下: 1、提出了一种表观和深度信息联合的人体目标特征表示方法。目标的稳定跟踪通常依赖于有效的特征表示。RGB-D序列同时包含表观颜色和深度信息,对于人体目标的表观特征,利用对光照鲁棒的HSV颜色直方图特征进行表示;对于深度特征,采用基于目标外观形状的二值化特征进行表示。在此基础上,提出一种基于表观和深度特征的融合计算方法,并基于粒子滤波算法实现了RGB-D序列的人体跟踪。 2、提出了一种基于RGB-D序列的多视协同人体跟踪方法。针对人体跟踪中的遮挡问题,本文提出采用多视RGB-D摄像机协同的目标跟踪模型。该模型通过建立多个摄像机的目标关联,利用多个摄像机跟踪位置的坐标变换选择最优的目标跟踪结果,并在检测到遮挡发生时实现目标的连续跟踪。 为了验证本文方法的有效性,在真实场景中对有光照变化、目标遮挡和复杂背景等干扰因素的人体跟踪进行了实验验证,实验结果表明本文的方法可以得到稳定持续的跟踪结果。