论文部分内容阅读
随着互联网的快速发展和移动摄影设备的广泛普及,图像的数量和图像内容的多样性日益丰富,逐渐呈现出爆炸式增长的趋势。面对如此海量复杂的图像数据,如何快速有效的从中查找到自己想要的信息,成为当前研究的热点。我们知道,一幅图胜过千言万语,因此学者们纷纷将重心放在基于内容的图像检索研究上。基于内容的图像检索流程主要包括三个阶段:图像视觉特征的提取,特征索引的构建以及相似度匹配策略的制定,其中图像视觉特征的表达能力会对检索的准确率产生重要的影响。令人遗憾的是,目前的图像检索技术中,还没有哪一种特征提取算法所得到的特征描述符能够准确地表达出图像中包含的全部内容,所以研究多特征有效融合的检索方法显得尤为必要。但是如何保证特征维度和检索效率成为另一个难题,例如,并行的融合多个图像视觉特征,需要对数据库图像存储多个视觉特征,导致存储消耗成倍的增加。本文梳理了现有图像检索模型中存在的不足,同时吸取了深度学习技术中的最新成果。在此基础上,提出了一种基于异构特征融合的大规模图像检索框架,并取名为自适应融合框架。具体地,本框架旨在实现基于卷积神经网络模型的全局特征和基于手工设计的局部特征的融合,并针对两种特征设计了与其相适用的全局检索和精确查询两个模块。全局检索模块主要完成过滤操作,即通过图像全局特征实现对数据集的快速检索,将数据集中与待查询图像不相关的嘈杂图像滤除,同时为保留在候选集中每幅图像学习一个权重来衡量其与查询图像的相似程度。精确查询模块的目的是在候选图像集中完成优化操作,即通过改进的词袋模型对候选集做进一步检索,并将其检索结果和全局检索模块得到的相似权重进行融合,以此得到最终的相似值排序。自适应融合框架以两层检索机制为核心,采用过滤和优化操作保证检索的全效性和适应性。通过在多个数据集上的结果证明,与目前的方法相比,本文提出的自适应融合框架能够很好的兼顾图像检索任务的效率和准确率。