论文部分内容阅读
视觉同步定位与建图是一种基于视觉传感器进行定位与场景点云地图构建的重要技术。在室内结构化场景中,因为特征点稀少或区分度不明显SLAM系统容易发生误匹配或者定位精度降低等问题,本文致力于研究基于结构化场景特征的视觉定位与建图算法。主要研究内容如下:(1)提出了一种基于结构化场景的线特征改进算法。在视觉SLAM前端特征匹配过程中,通过包含深度信息的图像提取室内结构化场景的线特征,基于Cayley坐标对线特征提取与匹配算法进行改进;之后基于曼哈顿假设使用图像线特征约束的区域增长算法对图像中水平面进行检测,提升视觉SLAM前端特征匹配算法的鲁棒性,同时为视觉SLAM后端改进点云分割与点云地图构建算法奠定基础。通过在复杂多样的室内场景数据集中对算法鲁棒性进行验证,本算法在TUM与NYUDv数据集的图像序列中平均线特征匹配的内线数量相较LSD算法提升11%,检测图像水平面的速度相较于主流算法提升13.2%。(2)提出了一种融合场景结构特征的视觉SLAM改进算法。在视觉SLAM算法中添加场景分段信息,通过对相机轨迹进行分段并添加运动方向信息,提高结构化场景中跟踪稳定性;基于场景分段中运动方向约束与平面线特征约束为可观测路标点与相机位置添加置信度,将可靠的观测添加至优化方程,提高后端优化精度。通过结合场景分段中运动方向约束与平面线特征约束的增量式优化,对相机运动模型和观测模型优化求解,提高视觉SLAM后端优化求解速度。通过TUM RGB-D中存在结构化场景的数据集实验,本文算法的关键帧平均处理时间相比较于ORB-SLAM2以及其改进算法的关键帧平均处理时间提升9.5%,平均定位精度提升11.6%。(3)研究了一种融合平面分类信息和场景点云聚类的语义地图构建算法。首先通过图像特征与平面法向约束对结构化场景进行平面提取,得到场景空间基准平面集合;其次基于曼哈顿假设与平面几何一致性构造能量函数,通过最小化能量函数得到优化后的平面集合和点云语义分割的结果,形成连续的结构化场景的低内耗语义地图。实验表明,在TUM数据集中本文算法平均每帧图像的平面提取数量与计算效率相较于SPSLAM算法均有一定提升。