论文部分内容阅读
视频显著性检测根据人类视觉注意机制,有效提取人眼高度关注区域,能够为后续的视频分割、目标跟踪、目标识别等过程减少处理数据量,降低计算复杂度。视频显著性包括以空间特征为基础的空间显著性和以运动信息为基础的时间显著性。目前主流的视觉刺激驱动的视频显著性检测方法大都将显著区域作为单独的点进行特征提取,通过与背景区域的对比度计算显著性,忽略了它们之间的相关性和连接性。而基于连通图的显著性检测方法能够利用连通图的结构特性充分考虑区域之间的相关性,提高显著性检测的准确度。因此,本文展开了以连通图为基础的视频显著性检测方法的研究。首先,本文介绍了显著性检测的发展状况和应用领域,以及国内外先进的显著性研究成果。通过对显著性检测基本模型的探讨,为后续基于连通图的显著性检测方法的研究奠定了基础。其次,本文通过分析已有的视频显著性检测方法的关键因素,提出了一种以连通图和运动感知模型为基础的联合时域和空域的视频显著性检测方法。该方法在空间上以全连通图为基础,利用漫步者随机游走相关理论和节点亮度、颜色、密度等统计特征计算各节点显著性概率平稳分布,得到空间显著图。在时间上充分考虑视频帧之间的运动信息,根据运动感知模型和运动方向一致性计算运动信息的显著性概率分布,从而计算时间显著图。然后,采用自适应权重的空时显著图融合方法计算视频最终显著图,并在公开的视频库上,验证了该检测方法的准确性。最后,本文针对基于运动感知模型和运动方向一致性的时间显著性检测结果不能有效抑制背景信息的问题,提出了一种基于连通图流形排序的视频显著性检测方法。该方法在时间上通过构建8邻域连通图,利用相邻帧运动矢量构造运动矢量场,计算运动连贯性和对比度信息,在定义运动连贯性较大值为查询对象的基础上利用流形排序算法计算各节点的运动显著性概率分布,得到时间显著图。在空间上采用基于图的流形排序的图像显著性检方法,利用流形排序算法对各节点的颜色特征相对于边界查询节点进行显著性排序,计算空间显著图。空时显著图经过“multiplicative”融合得到视频显著图。最后,在公开的视频库上对该方法进行验证分析。