论文部分内容阅读
论文对目标跟踪和表情识别这两个计算机视觉中的核心任务进行了研究。在目标跟踪方面,对于简单场景,建立了根据人体目标的运动和变化情况进行视频处理的基本框架;对于复杂场景则以Mean-Shift跟踪算法和粒子滤波算法为主要研究对象,从多特征的有效融合和目标模型更新等方面提出改进,用于解决复杂环境下的目标跟踪问题。在表情识别方面,本文将重点放在特征提取关键算法的研究上,将近年来在图像分类中应用广泛的局部二值模式(Local Binary Pattern,LBP)特征以及梯度直方图(Histogram of Oriented Gradient, HOG)特征引入表情识别中,针对表情特征融合、笑脸表情的二分类问题等进行了深入研究。论文取得了以下主要研究成果:1.研究了目标检测跟踪的基本方法,以此为基础建立了两种通用的视频处理框架,(1)提出一种基于区域特征的人体异常行为检测方法,首先采用基本的高宽比和质心等特征进行聚类,建立正常和异常行为特征库,然后根据目标区域的变化信息检测运动人体的异常行为;(2)提出一种基于运动特征的人数统计方法,采用改进的质心法对多目标进行跟踪,通过对目标的运动轨迹分析得到目标的运动区域和方向,由此实现对通道出入人数的统计。以上两种方法不需要对目标进行精确检测跟踪,因此可用于监控视频的在线检测。2.针对复杂场景下的目标跟踪问题,研究了基于多特征融合的均值迁移和粒子滤波目标跟踪方法。考虑到纹理特征描述了局部区域的灰度空间分布规律,而颜色特征缺少空间分布的描述,二者之间正好可以相互补充,因此引入LBP纹理特征用于和颜色特征一起对目标进行建模。在此基础上,针对目前跟踪方法存在的不足,将Mean-shift和粒子滤波两种跟踪方法结合,并对这两种算法选择不同的多特征融合策略,有效提高了多特征融合跟踪的稳定性及精度。3.为了提升在光照变化、目标遮挡、外观变化以及背景干扰等复杂情况下目标跟踪的性能,对多特征融合跟踪算法的关键技术进行了深入研究。完成的主要工作是:(1)针对以往的多特征融合策略的不足,提出了一种粒子滤波框架下的多特征自适应融合方法,该方法采用加权融合的方式对目标进行多特征观测和相似性度量,通过分析粒子的空间集中度和权值分布建立了一种有效的融合系数计算方法,使融合结果更加准确可靠;(2)针对传统模型更新策略的不足,设计了多特征模型的动态分层更新策略,根据各特征的退化程度选择不同的更新速度,同时选取可信度高的特征检测遮挡,有效降低了遮挡和目标外观变化对算法的影响,在一定程度上避免了更新过程导致的模型漂移问题。4.针对表情识别算法中的特征提取和分类器设计这两个关键问题进行研究。在表情特征提取环节,分析总结了传统的基于局部二元模式(LBP)的表情识别方法存在的不足,提出采用LBP的改进算子提取表情特征,通过实验证明与传统的LBP算子比较,改进算子所提取的纹理特征更为有效且维数较小,更适用于人脸表情识别。在分类器设计环节,重点研究了二对二多分类SVM方法,以四类别分类为基础,将其应用于六种表情的分类,有效提高了训练和检测的速度,同时减小了分类误差和误差积累的影响。5.针对笑脸识别这类较为特殊的表情识别问题,研究利用融合特征提高真实环境中笑脸分类的有效性。比较了利用局部二元模式(LBP)和梯度方向直方图(HOG)进行笑脸识别的性能,提出构建融合人脸纹理特征和嘴部区域特征的笑脸分类器。通过基于串联融合,基于CCA,基于DCCA等不同融合策略的比较实验,结果表明特征融合有利于发挥表情纹理和形状信息的互补性,提高了笑脸表情识别的可靠性和准确性。