论文部分内容阅读
无人机遥感具备空间分辨率高、时效性强、成本低、安全性高等优点,其应用也越来越广泛。但是受无人机飞行高度、数码相机焦距、高空间分辨率的限制,单张无人机影像的覆盖范围较小,仅依靠单张影像,难以形成对整个研究区域的整体认知,因此需要将多张无人机影像进行快速拼接。而传统的无人机遥感影像拼接方法是采用空中三角测量,该方法虽精度很高但需布设大量地面控制点,并且需要大量的人工选点,这也就导致其必须耗费大量的人力和时间,从而使得在面对灾害应急等情况时,不能实时做出响应。针对这一情况,本文从如下几个方面进行研究及改进,在保证较高精度的同时,来实现无人机影像的快速拼接。在特征点提取方面:基于CUDA架构,利用GPU+CPU协同处理模式,实现了SIFT算法,通过利用GPU强大的并行计算能力,大大减少了特征提取的时间。在影像局部配准方面:基于SIFT特征粗匹配,首先剔除了一对多或者多对一的错误匹配点;其次,通过斜率约束和极线约束,进一步剔除了部分错误匹配点;最后利用RANSAC算法基于透视变换模型剔除了最后残余的错误匹配点,优化了局部配准的流程,保证了匹配点对的正确性,实现了无人机影像从粗到精的配准。在影像拼接方面:针对无人机影像拼接的累积误差问题,本文通过全局优化的思想来消除累积误差,并提出一种利用影像投影中心间接更新所有控制点全局坐标的方法来对所有Homography矩阵进行迭代求精的策略。首先基于平移模型获取每张无人机影像的投影中心和控制点的全局坐标,随后利用最小二乘法,为L-M算法的迭代提供初始化参数,利用整体优化的思想,通过L-M算法实现对所有待拼接影像的Homography矩阵进行非线性优化,采用将控制点间接进行更新的迭代方式,实现了基于全局配准的拼接方法,消除了累计误差,加快了拼接速度。在影像融合方面:利用A*算法,来实现最佳拼接线的搜索,并提出了一种利用重叠区域中心来对最佳拼接线的搜索进行约束的方法,使得拼接线尽可能的处于重叠区域的中心位置,以减小镜头的畸变给快速拼接所带来的影响,最后再利用多分辨率样条技术消除重叠区域的曝光差异,实现无人机影像的无缝拼接。