论文部分内容阅读
摘要:本文在现有模型的基础上,提出一种基于图像颜色特征和图像中物体特征的显著性检测算法CO(色差感受度和物体度分别用C,O来表示)。在原CO模型基础上,我们增加了模糊感受度的概念,形成新的显著性检测模型BCO(参数模糊为B),关注区域的增加更完善了我们针对图像前景和背景部分不同显著度的标量,而且对于部分色差感受度误以为是背景的像素具有纠正作用。通过实验证明具有很好的可行性和有效性。
关键词:显著性检测;色差感受度;物体度;CO;BCO。
0 引言
日益发展的机器视觉技术让我们享受到信息时代的高速与便捷,而机器视觉研究的基础在于对图像的处理,如何高效的提取图片中的有用信息是机器视觉的重点研究课题之一。本文在现有模型的基础上,提出了基于人眼感受度和图像物体度的显著性检测模型。人眼感受度在本文中指的是色差感受度和模糊感受度两种因素。其中色差感受度的计算是在Lab颜色空间,使用SLIC算法将图像分成许多超像素块,建立马尔科夫随机游走图模型,分别选定背景节点和前景节点为吸收态,计算相应状态下的马尔科夫吸收概率,用超像素块之间的颜色特征相似度作为衡量其显著性的依据。具体思路是先对图像进行色差感受度和模糊感受度的运算;然后通过色差感受度的计算我们大体上估计出整幅图像的前景和背景区域;最后通过模糊度的运算我们得到图像上最容易受到视觉关注的区域。二者结合,就可以得到一个更加符合人的视觉关注特征的显著图像。
1 算法介绍
CO算法:
该模型的主要思想是首先计算整体图像的颜色独特度和物体度,色差的计算可以使图像的颜色显著部分更加突出,物体度会将关注度集中到画面中的物体上,这种模型的思想完全符合人类的视觉注意机制,先是整体,而后是局部特征突出的部分,最终得出图像的显著性图片。
BCO算法:
至此,我们又获得了新的图像的参数模糊度B。模糊度的加入对原来的算法提供了更丰富的显著性参数,实现了算法的改进。
2 实验過程及结果对比
2.1 实验结果的对比
在本小节中,我们选择了几种经典的显著性检测模型:IT模型,GB模型,RC模型,SR模型以及FT模型和本论文提出的显著性检测模型对相同的图片进行检测,得出显著图,并进行比较。MAP模型主要算法原理与本模型所述色差感受度的计算相似,故没有详述。UFO模型为独特度,聚焦度和物体度特征的非线性结合,前面几种算法比较常见故没有详述其原理和推导演算过程。
通过实验结果对照图我们得知,GB模型和IT模型得出的显著图最为模糊,只能大概显示出部分显著的高亮区域,而且难以分辨出图片中物体的整体轮廓,FT和SR模型都属于频域运算模型,运算速度都很快,FT模型是运用了局部对比度,因此比较适合背景单一,SR模型在单一背景下可以获得较好的显著性区域的轮廓,复杂环境情况下的表现不太令人满意。RC模型整体来看效果有了很大程度地改善,但在其他颜色亮度高的区域也被当成了显著性区域,因此也是有待优化。MAP对于图像的前景和背景区域得到比较优秀的区分结果,在细节纹理部分的检测还有待优化。UFO模型整体看来检测结果表现较好,但是需要较长的运算时间,效率较低。对比上述显著性检测领域的经典模型,本论文中提出的模型,集合了UFO模型与MAP模型的优点,兼顾整体图像的颜色显著度,图像中物体的独立存在,以及人类视觉聚焦关注特性的各种特点的算法,在显著图的提取上表现优秀,在复杂的场景中也能较好的标识出显著性区域。
2.2 在数据集上进行显著性检测指标对比
将本文提出的模型与IT模型,GB模型,RC模型,SR模型和UFO模型在三个不同的图像数据集中进行显著性检测,并针对每次检测结果进行分析,分别绘制相应的PR特征曲线,进行运算结果的比较。为了获得更有说服力的显著性检测评价效果,我们选择了MSRA图像数据集。在PR特征曲线,用不同的颜色分别代表每一种模型的运算结果,其中红色代表本论文提出的模型,绿色代表UFO模型,蓝色代表RC模型,黄色代表SR模型,紫色代表IT模型,黑色代表GB模型。
根据实验我们所得到的具体结果如下幅图所示:
从上图我们可以明显的看出,我们提出的新模型在每个数据集上的检测与其他几种模型相比,具有明显优秀的表现,具有较高的查准率与查全率。
3 结语
本文主要思路为:首先对图像进行色差感受度和模糊感受度的运算;然后通过色差感受度的计算我们大体上估计出整幅图像的前景和背景区域;最后通过模糊度的运算我们得到图像上最容易受到视觉关注的区域。二者结合,就可以得到一个更加符合人的视觉关注特征的显著图像。通过显著性结果的对比和PR特征曲线的结果可以看出经过改进的BCO算法在显著性检测的应用中可行性和实用性表现的非常可观,具有较好的实际应用价值。
参考文献:
[1]Shi J,Yan Q,Xu L,et al. Hierarchical Image Saliency Detection on Extended CSSD [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2016, 38(4):717.
[2]Wang Z,Teng S,Liu G,et al. Hierarchical sparse representation with deep dictionary for multi-modal classification[J]. Neurocomputing, 2017, 253(C):65-69.
作者简介: 钱广秀,出生年1992,汉,山东菏泽,研究生,山东科技大学,研究方向:机器视觉与模式识别
徐亚超,出生年1992,汉,山东泰安,研究生,山东科技大学,研究方向:机器视觉与模式识别
关键词:显著性检测;色差感受度;物体度;CO;BCO。
0 引言
日益发展的机器视觉技术让我们享受到信息时代的高速与便捷,而机器视觉研究的基础在于对图像的处理,如何高效的提取图片中的有用信息是机器视觉的重点研究课题之一。本文在现有模型的基础上,提出了基于人眼感受度和图像物体度的显著性检测模型。人眼感受度在本文中指的是色差感受度和模糊感受度两种因素。其中色差感受度的计算是在Lab颜色空间,使用SLIC算法将图像分成许多超像素块,建立马尔科夫随机游走图模型,分别选定背景节点和前景节点为吸收态,计算相应状态下的马尔科夫吸收概率,用超像素块之间的颜色特征相似度作为衡量其显著性的依据。具体思路是先对图像进行色差感受度和模糊感受度的运算;然后通过色差感受度的计算我们大体上估计出整幅图像的前景和背景区域;最后通过模糊度的运算我们得到图像上最容易受到视觉关注的区域。二者结合,就可以得到一个更加符合人的视觉关注特征的显著图像。
1 算法介绍
CO算法:
该模型的主要思想是首先计算整体图像的颜色独特度和物体度,色差的计算可以使图像的颜色显著部分更加突出,物体度会将关注度集中到画面中的物体上,这种模型的思想完全符合人类的视觉注意机制,先是整体,而后是局部特征突出的部分,最终得出图像的显著性图片。
BCO算法:
至此,我们又获得了新的图像的参数模糊度B。模糊度的加入对原来的算法提供了更丰富的显著性参数,实现了算法的改进。
2 实验過程及结果对比
2.1 实验结果的对比
在本小节中,我们选择了几种经典的显著性检测模型:IT模型,GB模型,RC模型,SR模型以及FT模型和本论文提出的显著性检测模型对相同的图片进行检测,得出显著图,并进行比较。MAP模型主要算法原理与本模型所述色差感受度的计算相似,故没有详述。UFO模型为独特度,聚焦度和物体度特征的非线性结合,前面几种算法比较常见故没有详述其原理和推导演算过程。
通过实验结果对照图我们得知,GB模型和IT模型得出的显著图最为模糊,只能大概显示出部分显著的高亮区域,而且难以分辨出图片中物体的整体轮廓,FT和SR模型都属于频域运算模型,运算速度都很快,FT模型是运用了局部对比度,因此比较适合背景单一,SR模型在单一背景下可以获得较好的显著性区域的轮廓,复杂环境情况下的表现不太令人满意。RC模型整体来看效果有了很大程度地改善,但在其他颜色亮度高的区域也被当成了显著性区域,因此也是有待优化。MAP对于图像的前景和背景区域得到比较优秀的区分结果,在细节纹理部分的检测还有待优化。UFO模型整体看来检测结果表现较好,但是需要较长的运算时间,效率较低。对比上述显著性检测领域的经典模型,本论文中提出的模型,集合了UFO模型与MAP模型的优点,兼顾整体图像的颜色显著度,图像中物体的独立存在,以及人类视觉聚焦关注特性的各种特点的算法,在显著图的提取上表现优秀,在复杂的场景中也能较好的标识出显著性区域。
2.2 在数据集上进行显著性检测指标对比
将本文提出的模型与IT模型,GB模型,RC模型,SR模型和UFO模型在三个不同的图像数据集中进行显著性检测,并针对每次检测结果进行分析,分别绘制相应的PR特征曲线,进行运算结果的比较。为了获得更有说服力的显著性检测评价效果,我们选择了MSRA图像数据集。在PR特征曲线,用不同的颜色分别代表每一种模型的运算结果,其中红色代表本论文提出的模型,绿色代表UFO模型,蓝色代表RC模型,黄色代表SR模型,紫色代表IT模型,黑色代表GB模型。
根据实验我们所得到的具体结果如下幅图所示:
从上图我们可以明显的看出,我们提出的新模型在每个数据集上的检测与其他几种模型相比,具有明显优秀的表现,具有较高的查准率与查全率。
3 结语
本文主要思路为:首先对图像进行色差感受度和模糊感受度的运算;然后通过色差感受度的计算我们大体上估计出整幅图像的前景和背景区域;最后通过模糊度的运算我们得到图像上最容易受到视觉关注的区域。二者结合,就可以得到一个更加符合人的视觉关注特征的显著图像。通过显著性结果的对比和PR特征曲线的结果可以看出经过改进的BCO算法在显著性检测的应用中可行性和实用性表现的非常可观,具有较好的实际应用价值。
参考文献:
[1]Shi J,Yan Q,Xu L,et al. Hierarchical Image Saliency Detection on Extended CSSD [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2016, 38(4):717.
[2]Wang Z,Teng S,Liu G,et al. Hierarchical sparse representation with deep dictionary for multi-modal classification[J]. Neurocomputing, 2017, 253(C):65-69.
作者简介: 钱广秀,出生年1992,汉,山东菏泽,研究生,山东科技大学,研究方向:机器视觉与模式识别
徐亚超,出生年1992,汉,山东泰安,研究生,山东科技大学,研究方向:机器视觉与模式识别