基于结构化场景特征的视觉定位与建图算法研究

来源 :东南大学 | 被引量 : 0次 | 上传用户:z_asdf
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
视觉同步定位与建图是一种基于视觉传感器进行定位与场景点云地图构建的重要技术。在室内结构化场景中,因为特征点稀少或区分度不明显SLAM系统容易发生误匹配或者定位精度降低等问题,本文致力于研究基于结构化场景特征的视觉定位与建图算法。主要研究内容如下:(1)提出了一种基于结构化场景的线特征改进算法。在视觉SLAM前端特征匹配过程中,通过包含深度信息的图像提取室内结构化场景的线特征,基于Cayley坐标对线特征提取与匹配算法进行改进;之后基于曼哈顿假设使用图像线特征约束的区域增长算法对图像中水平面进行检测,提升视觉SLAM前端特征匹配算法的鲁棒性,同时为视觉SLAM后端改进点云分割与点云地图构建算法奠定基础。通过在复杂多样的室内场景数据集中对算法鲁棒性进行验证,本算法在TUM与NYUDv数据集的图像序列中平均线特征匹配的内线数量相较LSD算法提升11%,检测图像水平面的速度相较于主流算法提升13.2%。(2)提出了一种融合场景结构特征的视觉SLAM改进算法。在视觉SLAM算法中添加场景分段信息,通过对相机轨迹进行分段并添加运动方向信息,提高结构化场景中跟踪稳定性;基于场景分段中运动方向约束与平面线特征约束为可观测路标点与相机位置添加置信度,将可靠的观测添加至优化方程,提高后端优化精度。通过结合场景分段中运动方向约束与平面线特征约束的增量式优化,对相机运动模型和观测模型优化求解,提高视觉SLAM后端优化求解速度。通过TUM RGB-D中存在结构化场景的数据集实验,本文算法的关键帧平均处理时间相比较于ORB-SLAM2以及其改进算法的关键帧平均处理时间提升9.5%,平均定位精度提升11.6%。(3)研究了一种融合平面分类信息和场景点云聚类的语义地图构建算法。首先通过图像特征与平面法向约束对结构化场景进行平面提取,得到场景空间基准平面集合;其次基于曼哈顿假设与平面几何一致性构造能量函数,通过最小化能量函数得到优化后的平面集合和点云语义分割的结果,形成连续的结构化场景的低内耗语义地图。实验表明,在TUM数据集中本文算法平均每帧图像的平面提取数量与计算效率相较于SPSLAM算法均有一定提升。
其他文献
学位
学位
学位
学位
随着微电子工业技术的发展和室内应用的需求,无人机逐渐向小型化和集群化发展。微型无人机具备灵巧部署的特点,以适应复杂的室内环境,并且能通过集群化来增强其功能。无人机集群有着许多优势,但是为其设计一个高效的通信体系结构却是一项具有挑战的任务。现有针对室内无人机集群组网通常选择一种粗略的静态路由的星形网络,但是这种方式限制了无人机的飞行范围。为了避免这个问题,本文使用飞行自组织网络来设计无人机之间的通信
学位
学位
随着无人机技术的不断发展,其所面临的应用需求越来越复杂,单无人机在执行战场勘测、编队表演、灾难救援等复杂任务时具有一定的局限性,因此多无人机协同工作被广泛应用于各行各业中。无人机自组网作为多无人机协同工作的基础,其脆弱性的研究备受关注。无人机自组网具有低延迟的网络需求并且无人机节点具有高移动性,因此该网络的网络层协议需要有节点维护实时更新路由表的特性,然而这种特性使得本地节点可了解远程拓扑,极易受
学位
学位