论文部分内容阅读
传统的视觉显著性研究主要是针对二维图像,二维视觉显著性模型中,主要采用的是颜色、纹理、方向等二维图像特征,没有包括空间深度信息,所以无法应用在无人驾驶、矿井探测机器人等需要认知三维空间场景的领域中。 目前随着RGB-D图像获取成为可能,双目立体匹配、深度图获取等方面的研究越来越成熟,深度信息作为一项重要信息引起了人们的注意,增加深度信息以获得三维空间中有效显著信息的研究也越来越火热。 显著性分析方面研究的主要途径是建立视觉注意力模型,视觉注意力模型主要分为两种:一种是自底向上的、刺激驱动的或者数据驱动的模型;另一种是自顶向下的、任务驱动的模型。而前者更加符合生物视觉系统对图像、场景的理解,并且,目前许多的研究结果显示,自底向上的、刺激驱动的注意力模型,可以有效的应用到很多场景中,如图像分割、目标识别等。 本文通过研究双目立体视觉模型、图像分割技术、视觉检测性原理提出了基于颜色和空间融合的2D显著性模型,将本文中的模型在MSRA、MiddleBury、3D-gaze显著性目标数据库上进行测试,并与目前经典的显著性算法进行比较,通过人眼观察的主观对比以及准确率-召回率曲线、F-measure值进行客观评价,结果表明:本文的算法具有良好的显著性检测效果。 在2D显著性模型的基础上,通过研究增加深度信息之后二维特征对场景中显著目标的影响,以及人眼的观察规律变化,利用视觉显著性检测原理,提出了基于加权深度信息的3D显著性模型。通过增加深度信息扩展原始的2D显著性模型,可以模拟人眼周边视的测距功能,并且可以获得三维空间信息,将其结果应用在机器人视觉领域,能够指导机器人的注视点,是未来机器人发展的重要基础。