论文部分内容阅读
随着数码影像设备的广泛普及和网络技术的迅速发展,图像数据量正以惊人的速度不断膨胀,基于内容的图像检索技术因此成为信息领域的一个研究热点。目前多数系统利用图像的全局信息,如灰度、颜色、纹理等,进行匹配进而检索,检索效果一般。在实际应用中,往往存在视角变换、尺度变化和遮挡等干扰,导致匹配与检索效果都不理想。该论文深入研究Harris-Affine算法,详尽阐述其原理及特点,认为Harris-Affine局部区域具有较强视觉不变性,不仅能够应对模糊、光照变化、噪声等常见干扰,而且对视角和尺度变化也具有良好的不变性能。在单幅图像匹配实验中,该算法提取出的区域在匹配过程中表现出了极强的鲁棒性。随后又将其应用于基于内容的图像检索领域,在存在遮挡和大视角变化的情况下,与传统基于全局方法相比,查准率和查全率都得到了较大程度的提高。常规基于内容的图像检索方法在实现过程中,由于数据量巨大,匹配过程繁琐,常常导致检索速度很慢。该文针对此问题,结合文本检索的思想,提出一种基于局部特征的图像检索系统框架。该框架使用模式识别领域中聚类的相关知识,联系文本检索中关键词的概念,引入视觉关键词、词频向量等概念,从而达到进行数据压缩,加速匹配与检索的目的。为了验证上述方法的有效性与实用性,该文在包含有200类,每类5幅图像的1000幅图像数据库中进行实验验证。结果表明,该文所提出的方法及检索框架,不仅在查准率和查全率上有较大提高,而且,查询速度上也能满足用户需求。进而说明,Harris-Affine算法在基于内容的图像检索领域,特别是大视角变换等较强噪声干扰下,仍具有较强鲁棒性,具有较高使用价值。而且,视觉关键词、词频向量等概念的引入,在加速图像匹配与检索的过程中,也发挥了巨大的作用。