论文部分内容阅读
随着多媒体信息技术的飞速发展,图像资源越来越多地出现在人们的工作和生活当中,如何能够快速确地在庞大的图像资源库中查询到所需信息已经成为计算机视觉领域的一个重大挑战。为了便于人们识别和查找图像,因此产生了基于内容的图像检索技术,本文主要对其中的上下文相关的检索方法进行了研究。本文首先介绍了基于内容图像检索相关技术的基础知识。在图像特征提取方面,本文介绍了颜色、形状、纹理特征提取原理和常用方法;图像特征匹配方面,本文介绍了欧氏距离、马氏距离、加权欧氏距离等常用距离度量公式。在对基于内容的图像检索基本技术的掌握和理解的基础上,为了降低检索时间消耗,本文提出了一种新的上下文敏感图像检索框架,该框架将图像检索分为两个阶段:第一阶段为离线处理阶段,在进行图像检索之前,先将图像库进行聚类分组,建立图像库聚类索引。本文采用一种上下文相关的聚类方法,根据结点的度大小先进行初始划分,再使用凝聚聚类方法将初始划分的类进行迭代合并。为了减少图像库预处理时间,本文提出了改进方法,主要思想是先取出部分元素进行聚类,再将剩下部分划分到已知聚类中,改进后聚类时间消耗比原始方法节省50%以上。第二阶段为线上处理阶段,结合图像库索引进行上下文相关的图像检索过程。首先采用关节不变性原理分割形状的轮廓特征,得到成对的距离度量值;其次将待检索图像与图像库聚类索引进行比对,得到一个近似相似图库;最后将待检索图像和近似相似图库共同构建成图结构,在图上进行相似度扩散,扩散集合的选取分别使用了K-NN(K-Nearest Neighborhood)、反K-NN以及一致的K-NNs方法,经过一定次数的迭代后得到最终的检索结果。实验结果证明,建立图像库索引后再进行上下文相关的图像匹配,其检索耗时大大降低。我们在MPEG7CE Shape-1Part B图形库上得到99.92%的靶心得分(Bullseye Score),并且较之前提出的上下文相关匹配方法节省将近40%时间消耗。