论文部分内容阅读
随着科技水平的进步与发展,计算机视觉在人们的生活中应用越来越广泛,通过计算机的强大运算能力,可以对图像中存在的关键信息进行提取利用,运动目标的检测便是其中一个热门的研究方向。运动目标检测通常是通过对视频或者连续的图像序列中相应物体在不同时刻像素位置的变化进行分析,得出图像平面中各物体的运动信息。目前,在医学、交通、军事等领域运动目标检测技术都发挥着重要的应用。目前运动目标检测技术可以分为两大类,一种是以背景减除法、帧差法为主要方法的静态目标检测,另一种以光流法为主的动态目标检测。本文所用的场景流是一种基于RGBD图像的运动目标检测技术,是由光流方法经过添加深度信息约束得到的一种三维空间运动状态的估计方法。随着Kinect等深度传感器技术的完善,对深度信息的获取不再依赖于多视角相机的视差估计方法,场景流的估计也从最初的基于多目相机的视差计算方法发展至基于RGBD图像的场景流技术,随着消费者级深度传感器的普及化,RGBD场景流方法也成为一个研究的热门课题。本文主要是使用场景流的方法对RGBD图像序列中是否有运动目标进行检测,重点在于对场景中运动目标与静止背景进行区分。本文主要工作将场景流估计方法应用到运动目标检测之中,并对场景流计算过程中的部分流程进行优化。首先在RGBD图像的获取过程中,因为深度传感器所采用的结构光技术不能对场景中所有信息准确捕获,所以在深度图像中部分关键位置信息可能存在缺失情况,本文在使用深度图像之前利用像素点周边的相似性对深度图像进行空洞填充,较好的还原关键点位置的深度信息;为避免由相机及传感器运动所带来的全局运动对结果产生的影响,本文运用基于Fast特征点匹配的相机运动模型,对相机运动前后两帧RGBD图像间对应像素点坐标进行修正,使用修正后的坐标点进行场景流的估计,在最终实验结果中本文方法很好的解决全局运动对检测结果带来的影响;在之前的场景流估计方法中,为检测图像中的大运动,往往采用的是基于特征点匹配的方法,只要特征点运动前后都在图像中,便不会产生无匹配的情况,但是这种方法存在一定的弊端,在特征点过多或者过少的情况下都无法对运动目标进行精确匹配,并且得出的结果也是稀疏场景流,需要再进一步根据场景结构对密集场景流进行估计,本文采用多尺度迭代计算的方法,将大位移运动的图像分辨率降低直至可以直接计算的情况,再进一步向高分辨率迭代,最终实现大位移运动的检测;针对光流目标检测方法中运动目标与背景边界模糊的现象,本文采用对称平滑和非对称平滑相结合的策略,加大边界处梯度的作用,并且在实验中对运动目标边缘的检测效果较好。