论文部分内容阅读
视频图像中的行人检测问题是计算机视觉领域中的重要课题之一,由于其在智能驾驶、安全监控、军事侦察等方面应用的广泛性,行人检测问题在学术界和工业界一直是研究的难点与热点。但是行人检测问题存在着诸多挑战:如何确定行人在视频图像中的运动区域,如何对行人在视频图像中进行恰当的表达,如何实现行人检测器的构造,要达到实用性较强的行人检测效果,这几个方面必须均有良好的算法支撑。目前,在行人检测课题上的研究前人已经有了一定的工作基础,在某些不复杂的场景下行人检测效果基本能够达到较好的指标,但是在更为复杂的应用场景下,主要在动态背景与行人有部分遮挡时,前人的行人检测算法表现均难以达到实用性的要求。为进一步提高行人检测效果,并在一定程度上改善在动态背景下以及有局部遮挡情况下行人检测困难的问题,本文从行人检测所涉及到的运动前景提取、特征设计与分类算法各方面进行改进和研究。1.在行人运动前景区域的提取中,对一种运动前景提取效果优秀的方法提出了改进与优化,对原方法基于两个深度自编码网络对视频图像中背景进行提取与学习的过程增加了随机噪声输入,以及使用背景学习网络的输出对背景提取网络进行修正,进而提取运动前景,通过对网络结构的改进得到更鲁棒的前景提取算法;2.在图像中行人的特征设计与提取中,通过对行人检测中常用的特征分析对比,采用对行人特征刻画较优且编码简洁的CENTRIST特征,并且对该特征提出针对于行人部分遮挡问题的改进,使用行人部件的局部联合CENTRIST特征代替行人整体CENTRIST特征,实验也证实了重新构造的行人特征在局部遮挡下具有更强的不变性;3.在分类算法的设计中,提出了一种多自编码网络与支持向量机的行人检测分类器算法。为了保持行人特征各部件之间的独立性,针对行人局部联合特征的处理提出一种采用多个深度自编码网络的结构,对行人不同部件特征分量分别通过各自对应的深度自编码网络进行压缩编码,特征强化的同时也得到了进一步的抽象,将不同的分类器算法思想进行交叉融合,深度神经网络与支持向量机进行组合并实现,在较复杂场景下得到更优的行人检测效果。