论文部分内容阅读
人类拥有在任意复杂图像中快速识别显著目标或区域的能力,为人类视觉神经系统进一步处理图像做出准备。视觉显著性的任务是使用计算机模拟人的视觉系统,检测出图像中的显著目标或显著区域,输出一幅表示图像中各区域或像素属于显著目标的概率的显著图,用于进一步的图像处理,如图像压缩,目标识别,图像检索等。本文基于受限玻尔兹曼机和条件随机场分别建立了两种显著性检测模型,分别从全局和局部两种角度进行显著目标检测。传统全局与局部的显著性检测算法因其侧重点不同,存在不同的检测弊端。基于此,本文提出了两种融合策略,将全局模型与局部模型融合以弥补它们各自的缺陷使最终的显著性检测模型性能得到大幅度的提升。首先,对每幅待处理图像进行预分割,获得多个尺度的图像块,并对获得的图像块提取特征。然后,基于受限玻尔兹曼机训练全局模型,获得每幅图像中包含目标的形状;基于条件随机场训练局部模型,获取每幅图像的局部一致性信息。将两个模型在选定的测试集合上进行测试,得到两幅显著图。最后,提出了两种综合模型,将上述两模型综合,从而实现全局信息与局部信息的联合建模。第一种融合机制将两种概率模型进行联合训练,得到一个条件随机场与受限玻尔兹曼机的综合模型,在测试图像上重新进行测试获得综合显著图;第二种融合机制将两种模型得到的显著图直接通过求解一个最小化代价函数问题的方法融合,得到一幅最终的综合显著图。两种融合机制都可以即保留受限玻尔兹曼机学习到的图像全局形状信息,又可以保留条件随机场获取的图像局部一致性信息,得到检测性能更好的显著图。在实验部分,将本文提出的模型在五个显著性检测的公开数据集上进行了测试,并与现存23种经典算法进行了比较。实验对比结果证实本文的算法表现出了较优的性能,尤其是准确率-召回率曲线和平均准确率值,本文算法达到了显著性检测的顶尖水平,算法得到的结果图也可以准确的标记显著目标。