论文部分内容阅读
人类视觉的信息处理能力远超机器视觉。在方法论上借鉴人类视觉机理,是当前机器视觉性能获得突破的重要途径。本课题通过视觉注意(VisionAttention)来建模人类视觉系统,以人类主动视觉的“注视—跳视”原理为依据,提出基于视觉显著度的图像分割算法框架。主要思路是借助视觉显著性检测手段获得图像显著度,通过模拟人类主动视觉,仅专注于显著度大的像素而忽略其他像素,从而提高算法效率、避免噪声干扰。对自动图像分割而言,可以选择高显著度像素组成样本集,通过样本学习构建神经网络分类器,并模拟人眼微跳视多次采样后生成多个分类器,经集成实现稳定的图像分割。本文主要工作内容和创新点如下:(1)改进了一种传统视觉注意算法——谱残差方法(Spectral Residual,SR),提出一种基于超复数傅立叶变换的彩色图像显著度检测方法(Hyper-complex FastFourier Transform based Spectral Residual, HFFT-SR),能够克服传统SR算法仅利用灰度图提取图像显著度,割裂图像色彩信息的缺陷;该方法充分考虑彩色图像的完整光谱信息,得到的显著点通常涵盖整个目标,与人类感知基本匹配。(2)将视觉注意算法应用于多聚焦图像融合,提出一种基于视觉显著度的多聚焦图像融合方法。经实验发现图像聚焦区域显著度大于失焦区域,可借助源图像显著度间的对比来定位和选择最佳聚焦区,据此生成融合图像。实际图像融合实验表明,算法能自动选择清晰像素,获得37db以上的高峰值信噪比,且基本无参数调整,在不同类型图像融合中表现出强鲁棒性。(3)提出一种“采样-学习-分类”的图像分割算法。该算法首先自动检测图像的显著度;参照主动视觉原理注视最显著区域并采样少许重要像素;然后依靠样本学习构建高效ELM(Extreme Learning Machine)分类器,并通过分类器集成产生稳定输出,实现自然场景分割。基于标准图像库的实验表明算法能自动分割自然场景,具有好的分割效果。