论文部分内容阅读
复杂场景中背景运动、光照变化、阴影等复杂因素使得传统的运动目标检测算法性能受到限制,提高运动目标检测算法在复杂场景中的鲁棒性和检测性能是该领域目前的研究重点。近年来,卷积神经网络在许多视觉任务中得到成功的应用,以其优越的性能推动各个视觉领域的发展,将卷积神经网络应用到各项视觉领域正在成为研究趋势。本文剖析三种传统运动目标检测算法的原理与优缺点,从三个角度探讨神经网络与传统方法的结合应用,分别提出三种复杂场景中的运动目标检测方法,并在公共数据集上进行实验,验证本文所提方法的有效性。本文主要工作概括如下:针对复杂场景中的背景运动、光照变化等因素导致高斯混合模型的检测结果包含大量背景噪声,采用形态学处理进行后处理滤除背景噪声,可能会破坏前景区域的连通性的问题,提出一种基于自适应高斯混合模型和BP神经网络的运动目标检测算法。首先通过自适应高斯混合模型得到粗分割的前景图像,然后利用BP神经网络学习噪声特征,对粗分割的前景图像进行去噪处理。该方法从后处理的角度出发,能有效去除背景运动产生的噪声并保持前景的连通性。实验结果表明,本文提出的基于高斯混合模型与BP神经网络的运动目标检测算法在I2R数据集上的平均F-measure为72.98%,相比于其他传统方法其分割精度更高。针对前景目标的完整性主要依赖于前处理的检测,在后处理中采用神经网络进行滤波具有一定的局限性的问题。提出一种基于全卷积神经网络的运动目标检测方法(Moving Object Detection based on Fully Convolutional Neural Network,MOD-FCN)。该方法利用卷积神经网络学习前景目标的先验信息,采用Res Net-18作为编码器设计一种改进的FCN,网络输入包括目标帧和相应的手工标签。首先利用FCN对运动目标区域进行粗匹配,然后利用欧式距离对运动目标区域进行精匹配。实验结果表明,本文提出的基于全卷积神经网络的运动目标检测算法在I2R和CDnet2014两个数据集上的平均F-measure为76.12%,能适应多种复杂场景。针对两阶段的运动目标检测方法算法复杂性较大,容易产生累计误差的问题,设计一种用于复杂场景中运动目标检测的深度帧差卷积神经网络(Deep Frame Difference Convolutional Neural Network,DFDNet)。该方法是一种单阶段的运动目标检测算法,网络由Difference Net和Appearance Net两部分组成,网络训练完成后不需要后处理就可以预测分割精细的前景目标。Difference Net用于学习两帧图像之间的变化,从输入(t帧和t+1帧)中获得时序信息;Appearance Net用于从输入(t帧)中提取空间信息,并与时序信息融合,同时采用多尺度特征图融合和逐步上采样以保留多尺度空间信息,提高对小目标的敏感性。实验结果表明,本文提出的深度帧差卷积神经网络在I2R和CDnet2014两个数据集上的平均Fmeasure为82.54%,可以有效的分割前景区域,不仅能适应多种复杂场景,而且对小运动目标的检测有了明显改善。本文分别从后处理、前处理、深度帧差网络三个研究角度出发,提出一种基于高斯混合模型和BP神经网络的运动目标检测方法、一种基于全卷积神经网络的运动目标检测方法和一种用于运动目标检测的深度帧差网络。并通过实验证明算法的性能,为复杂场景中的运动目标检测算法研究提供新的研究思路。