论文部分内容阅读
通过某种融合规则,将多幅已配准或未完全配准的待融合图像合成一幅图像,即为图像融合。通过图像融合得到的图像包含了比单幅待融合图像更多的信息,并且能够更准确、更全面地描述场景。融合图像不仅更符合人眼视觉观察,也更有利于计算机视觉的后续处理。因此,图像融合作为一项重要的技术在很多领域都有广泛的应用,如医学、遥感、军事、计算机视觉、公安等。由于拍摄镜头的景深有限,在拍摄含有两个或多个目标的场景时,很难得到一幅该场景中所有目标都清晰(或聚焦)的图像,也就是说,当该场景中某一个目标是聚焦的,那么其它目标将会呈现不同程度的模糊。为了解决上述问题,需要对来自同一场景,聚焦位置不同的多幅图像进行融合,从而得到一幅该场景中所有目标都清晰的图像。融合图像包含了待融合图像中的互补和冗余信息,其拥有单幅待融合图像所不具有的信息,这就是我们所说的多聚焦图像融合。通过多聚焦图像融合技术,同一场景下的所有目标都可以在一幅图像中清晰地呈现,这不但提高了图像信息的利用率,也为图像的进一步处理提供了便利,奠定了基础,如目标检测和识别、图像分割、边缘检测等。本文就神经计算在多聚焦图像融合算法中存在的一些问题进行了深入研究,并提出了改进算法。论文的主要创新性工作如下:1.目前,基于图像特征的图像融合算法大多数都采用单个指标,并且这个指标一般都用来反映图像本身的清晰度,然而,仅用单个指标来权衡图像的清晰度通常不能全面地反映其特性。大多数图像融合算法在选取指标时,并没有考虑人眼视觉特性,而图像融合的目的之一就是便于人眼视觉观察。针对这种情况,本文提出了一种基于极限学习机(Extreme learning machine,ELM)和人眼视觉系统的多聚焦图像融合方法。该算法充分利用了视觉特征,通过提取源图像的纹理、梯度和局部对比度三个视觉特征作为ELM的输入,得到初始融合结果。初始融合决策图通过判断待融合图像的聚焦区域来获得,这里,采用通用的均方根误差(Root Mean Square Error,RMSE)来判断聚焦区域,主要是计算待融合图像和初始融合图像之间的RMSE。最终融合决策图通过优化初始融合决策图得到,依据该融合决策图,对待融合图像进行加权可得到融合图像。将本文方法与传统的融合算法,以及最近流行的融合算法进行了对比。实验结果表明,本文融合算法可以获得更好的融合结果,并且计算效率更高。2.针对基于脉冲耦合神经网络(Pulse Coupled Neural Network,PCNN)的融合算法中,参数设置固定这一缺陷,提出一种基于自适应PCNN,并结合鲁棒稀疏表示(Robust Sparse Representation,RSR)的多聚焦图像融合算法,其中,RSR能够很好地区分多聚焦图像的聚焦区域和非聚焦区域。该算法首先将源图像进行鲁棒稀疏表示,得到稀疏系数矩阵和残差矩阵。利用残差矩阵能够更好地将聚焦区域和非聚焦区域区分开来,并且其包含了源图像中更多的细节信息,因此,提取残差矩阵的空间频率作为PCNN的输入。与之前的大多数PCNN融合算法不同,我们首先计算源图像的显著度图,然后将其像素值作为PCNN中对应的链接强度。通过PCNN,我们得到点火图,对源图像点火图的点火次数取大,得到初始融合决策图,再对其进行优化,从而得到最终融合决策图。融合图像通过融合决策图对源图像加权得到。我们对算法进行了仿真实验,并与一些流行的方法进行了比较,无论是从主观视觉还是客观质量评价上来说,本文方法都优于现有的多数图像融合算法。