论文部分内容阅读
显著目标检测是视频图像处理与计算机视觉领域中的共同研究热点,它通过对场景图像/视频中的信息进行建模分析,从而提取出吸引人类视觉注意的目标区域。而立体图像/视频给观众提供了更真实的场景空间感受,具有更强烈的视觉冲击。到目前为止,学者们面向平面视觉显著目标的检测已提出了较为成熟的计算模型,可是针对立体图像/视频显著性检测国内外尚无成熟的计算框架,且对于深度特征在立体视觉中的重要性也没有进行充分发掘。基于上述研究现状,本学位论文主要针对立体图像/视频序列建立显著目标检测模型,主要工作内容如下:首先提出了一种融合深度可信度因子的RGB-D图像显著目标检测模型,该模型充分考虑了深度图线索对于立体视觉显著性检测的贡献度,通过计算深度图可信度因子判断深度图能否准确反映场景距离或深度图是否存在失真。当深度特征能准确反映立体空间场景信息时,提出了一种仅基于深度特征的立体图像显著区域检测模型。该模型结合深度对比度与深度紧凑度分析,通过背景滤除法抑制具有较大深度值的背景区域干扰,可以仅利用深度特征计算出显著区域从而降低计算复杂度。反之,当深度图存在场景模糊或失真时,本文结合颜色特征提出了一种有效的基于背景先验的多级排序显著性计算方法,同时融合深度特征来计算RGB-D立体图像的显著区域。在NJU-2000数据库和RGBD-1000数据库上的实验结果表明,本文算法分别取得了 89%和86%的准确率,以及86%和80%的召回率,性能优于近年来的显著性检测算法。在立体图像显著性检测基础上,进一步提出了立体视频序列显著目标预测模型。该模型充分考虑立体视频序列的时空一致性,分析了相邻帧之间的前景目标运动连续性。首先,融合空间梯度信息和运动梯度信息构建时空梯度场,求取基于空间位置先验的前景可能概率,作为计算立体视频序列水平方向侧的显著性基准;接着,计算场景深度运动信息,并建模分析了因运动突变引起的视觉不舒适对立体显著强度的影响;最后,自适应地融合空间显著图与时空一致显著图获得立体视频序列的显著性检测结果。实验结果表明,本文提出的立体视频显著性检测模型获得了 78%的准确率和72%的召回率,性能优于新近的对比算法,能实现复杂场景下的目标检测。