论文部分内容阅读
视觉SLAM是指机器人搭载相机传感器,在移动过程中自主估计自身位姿并建立周围环境的地图。而在实际应用中,机器人需要长时间持续运行在可变的复杂场景中,这就需要机器人拥有场景识别的能力去适应复杂的场景变化,包括光照变化、季节变化、遮挡变化、阴影变化、姿态变化、视角变化和背景变化等。这些复杂的场景变化对视觉SLAM中定位的鲁棒性和建图的准确性构成了挑战。为了应对这些挑战,视觉SLAM需要回环检测这个必不可少的模块,它可以根据传感器数据正确判断出移动机器人是否访问过某个位置,抑制定位和建图过程中的累积误差,提高定位的精度和建图的质量。传统的的回环检测的实现需基于手工提取特征的方法,这些方法对适中的场景变化具有一定的鲁棒性,但它们并不能应对复杂的场景变化。为解决这个问题,本文基于深度学习的方法,研究如何设计出高效、鲁棒的回环检测算法,主要研究成果包含以下三个方面:(1)针对已有基于深度学习的回环检测方法未能从视觉回环检测问题本身来设计和训练网络模型,导致不能有效地提取出低维有区分度的特征描述子的问题,提出了一种多约束深度距离学习的新方法,并基于该方法提出了一种视觉回环检测新框架。首先,使用卷积神经网络将原始图片映射到低维特征空间,并在线自动构造训练样本。在训练过程中,采用一种多约束损失函数来约束特征描述子之间的距离关系,以此提取出更有区分度的低维特征描述子。在New College和TUM数据集上,相比于传统的深度距离学习方法,本方法在相同回召率下能取得最高的准确率。(2)针对已有基于深度学习的回环检测方法仍然使用预先定义的固定的距离计算公式,难以准确的度量图片间相似性的问题,提出了一种轻量级关系型网络架构。该架构以数据驱动的方式端到端的学习特征提取和相似性度量,不需要预先定义距离度量的计算公式。同时,将前后几帧图片构造成图片序列作为输入,不仅能够提供额外的多视角信息,还能加快相似性度量的速度。(3)针对已有的深度学习方法需要依赖大量有标签数据进行有监督训练、泛化能力弱的问题,提出了基于二进制GAN的无监督回环检测新方法。该方法采用了一种新颖的用于传播汉明距离关系的损失函数进行无监督训练,将高维特征空间的汉明距离关系传播到了低维特征空间,以此提取出低维的、有区分度的二进制特征表示。避免了费时费力的数据标注过程,同时二进制特征描述子又极大地节约了存储空间和计算资源。