论文部分内容阅读
数字图像配准技术在当今科学研究的各个领域都显示出了很高的利用价值,基于特征点的配准技术又是图像配准技术中一个重要研究点,此类技术通过利用少量对图像发生形变时保持不变性的特征点来进行配准,因此拥有很好的实时性。SIFT (Scale Invariant Feature Transform,即尺度不变特征转换)算法作为一种经典且有效的配准算法,被广泛运用到图像校正、图像镶嵌等领域。该算法通过在尺度空间中寻找极值点,为每个关键点都附加近似唯一的描述子进行描述,从而得到精准的图像配准结果。本文通过实验仿真对SIFT算法进行了详细的分析与研究,并在此基础上对其进行了优化和改进。首先,简要论述了课题的研究背景和意义,对SIFT特征点匹配算法的研究现状进行了综述,并介绍了数字图像处理的基础理论以及一些经典的特征点提取算子。然后,基于数学模型分析了SIFT特征点匹配算法的实现过程,详细阐述了SIFT算法中高斯金字塔的建立、DOG算子空间的建立、本地极值点的获取、边缘不稳定特征点的去除、关键点描述子的生成等关键步骤,完整的剖析了SIFT算法的思想和实现过程。最后,针对SIFT算法在运用于纹理或边缘信息不明显的图像时,无法得出较多的SIFT特征点的问题,本文提出采用拉普拉斯算子对高斯模糊图像进行灰度信息还原处理,以此获得更多的SIFT特征点。通过MATLAB实验,验证了该方法在一定程度上提高了高斯模糊图像中特征点的数量。同时为了对所提取的特征点的真实性进行验证,本文将拉普拉斯算子处理后的高斯模糊图像与原图进行了配准实验,验证了经本文方法处理后的图像所获取的特征点对提高配准成功率的有效性。针对SIFT算法关键点描述子维数过高,影响算法实时性的问题,提出了利用统计抽样的方法对关键点描述子进行降维处理,使原SIFT算法中的关键点描述子从128维降低到64维,通过MATLAB实验分析,验证了该方法在一定程度上能够有效的提高图像的配准速度。