论文部分内容阅读
目前,基于图像的三维重建算法是无人机稠密点云生成的主要方法之一,其核心原理是多视图几何理论。但该类方法最初所针对的处理对象是分辨率较低的网络社区图像(分辨率一般在一百万之内),直接应用于分辨率较高的无人机图像(分辨率一般在千万级别,甚至更高)会出现效率和精度方面的问题。本文结合无人机图像分辨率较高、含有辅助信息等特点对现有算法进行改进,提高了无人机稠密点云生成的精度和效率。本文主要工作如下:1.为了提升图像特征匹配过程的效率,提出一种基于视觉词汇表检索的图像快速匹配方法。将图像检索领域中的视觉词汇表(Visual Vocabulary)检索方法引入到无人机图像特征匹配过程中,并结合无人机图像中含有的概略拓扑信息对原有词汇表检索算法加以改进,提出一种由粗到精的匹配策略。首先,对原始图像建立金字塔,在较低分辨率的金字塔图像上检索获取相似度排序。然后,根据相似度排序建立预匹配像对以缩小匹配范围。最后,采用基于多阶哈希(Cascade Hash,CasHash)的匹配方法进行像对内匹配。对比实验结果表明,该算法在保证结果精度的前提下可以显著提升图像特征匹配的效率。2.针对全局式运动恢复结构(Structure from Motion,SfM)算法存在相机全局位置估计对外点敏感的问题,提出一种基于凸优化的相机全局位置估计方法。首先,结合极线约束提出一种对误匹配鲁棒的相对平移方向估计算法,减少相对平移方向估计结果中的外点。在此基础上构造了一个对外点鲁棒的基于1L约束的凸优化线性估计模型。最后,对模型解算获取相机全局位置估计的全局最优解。对比实验结果表明,该方法对外点具有更高的鲁棒性,能保证估计结果平均精度较高,在效率方面也有较好的表现。3.为获取稠密度高、外点少、完整性好的稠密点云模型,提出一种结合几何一致性约束的深度图(Depth Map)多视立体重建算法。分别将几何一致性约束融入到深度图多视立体重建的两个步骤:深度图生成,深度图融合。首先,在深度图生成过程中结合光学和几何一致性,选择具有最小代价(cost)的匹配像素参与深度值计算,获取最优深度估计生成深度图。然后,在深度图融合过程中结合可见性和几何、光学一致性约束滤波,滤除深度图中存在的外点。最后,对深度图进行融合获得稠密点云。对比实验表明,该算法在稠密度、对外点鲁棒性、完整性方面具有一定的优势。