论文部分内容阅读
面对网络中迅速增长的图像数据,如何能够在浩瀚的图像集中准确并且快速地检索到用户感兴趣的图像,已经成为图像检索领域研究的热点。然而基于文本的图像检索可能会存在以下一些问题,例如图像描述信息的模糊、缺失;不规则多语种的图像描述文本;被错误描述的图像等。因此,将图像本身作为检索输入的需求正日益增加,众多基于内容的图像检索(CBIR)方法被提出,用于提取图像的视觉内容信息,提高待检索图像特征与图像库中图像特征的最佳匹配精度。然而,物体的遮挡、重叠、空间布局差异、图像分辨率差异,光照的变化,语义鸿沟以及多媒体内容的指数级增长等问题都使得CBIR成为具有挑战性的问题。为了能够尽可能充分地表达图像丰富的视觉内容信息,本文提出了融合多源特征的图像检索框架,包含目前被广泛使用的深度卷积网络特征以及传统的局部特征和全局特征,使得检索结果更加适应用户的需求,提高了检索精度。本文具体地阐述了以下三个贡献点:1)基于改进的“视觉词袋”模型提出了由粗到细的视觉词典的优化和新的自适应软分配技术。在视觉词典的构造中,加入由全局到局部的概念,通过优化的乘积量化技术对无监督学习得到的视觉词典的各个局部维度进行压缩编码。在特征量化阶段,根据提出的软分配数学模型自适应地控制分配到各个视觉单词的数目和量化到各个视觉单词的权值,最终构造出单一特征空间的图像表示。2)提出了基于相似性加权矩阵的多特征融合方法。从特征相似性原理出发,两张相似图像的特征向量在某些维度上距离很近而在某些维度上距离很远,因此在相似度计算时需要增加相近维度的重要性而抑制相异维度的贡献度。该特征融合方法能够根据特征每一维的差异利用相似性权值矩阵对特征进行动态加权,增加了加权针对性以及提高了匹配准确度。3)提出了基于候选图像视觉相关性分析的重排序算法。首先运用现有的图像检索方法得到的初始检索结果序列进行再次检索,继而根据提出的方法构造候选图像间的视觉相关有向图,然后根据提出的模型分析候选结果间的视觉相关性,最终得到候选图像的相似性权重,实现重排序。4)设计并且实现了融合多特征的图像检索系统。用户可以选择本地数据库中的图像上传到系统中,系统后台将执行本文的图像检索算法,最终可视化检索结果,并且能够实现检索结果重排序的功能。