论文部分内容阅读
视觉注意机制能够突破信息处理的瓶颈,只允许部分有价值的输入感知信息作为视觉意识的信息来源。同样,在实际应用中优先为显著性目标分配计算资源,能够提高计算速度。因此,研究视觉注意模型(Visual Attention Model,VAM)在计算机视觉领域具有重大意义。空间域视觉注意模型效果较好,但是普遍存在计算复杂度高和手工可调参数过多等不足。为弥补空间域模型的不足,频域视觉注意模型逐渐成为研究热点,但是频域视觉注意模型趋向于检测显著目标的边缘而非其内部区域,并且缺乏生物可信性。为此,本文构建一个联合频域与空间域的显著性检测模型,并将其引入图像分类中。本文的重要贡献有:(1)针对频域视觉注意模型倾向于检测目标边缘的问题,本文对HFT(Hyper complex Fourier transform)模型进行改进,并提出IHFT(Improved HFT)模型。首先,改进超复数实虚部系数,使图像超复数表示更符合人类视觉特性。其次,引入空间标准差和对比函数选择最优显著图。在精确标记显著目标的最大数据库上,本文IHFT模型的AUC平均值为0.8454,F-measure达到0.8300。因此,IHFT相比于其他模型具有优越性和有效性。(2)针对IHFT模型仍然不能均匀完整地突出整个显著性目标的问题,为更加符合人类视觉感知,在图像超复数表示中引入深度信息,同时为提高模型的检测准确性,在IHFT模型的基础之上引入HC(Histogram-based Contrast)模型改善性能。IHFT模型能够最大程度地检测出复杂纹理背景的显著性目标,但是更倾向于检测边缘;而HC能够均匀突出显著性目标的整体,却对于纹理复杂的背景图像无能为力。本文取长补短,运用熵值分布作为IHFT与HC的融合权值,进行非线性融合得到最终理想显著图。实验结果表明,IHFT+HC混合模型既能均匀地突出整个显著目标,又能处理背景复杂的图像;其平均AUC值为0.8985,F-measure达到0.8414,优于相关模型。(3)提出一种基于视觉注意模型的图像多分类方法。首先,为降低计算复杂度,文中在提取显著区域的前提下进行图像分类。其次,提取显著区域图像的纹理和PCNN时间签名特征,大大降低了特征维数,并且能够更加合理的表达图像的本质内容。最后,利用SVM进行图像多分类。实验结果表明,本文提出的基于视觉注意模型的分类正确率达到94.42%,比基于原始图像的图像分类方法提高了5.04%。