论文部分内容阅读
在人工智能、虚拟现实、机器学习方兴未艾的今天,以计算机视觉为基础的机器人技术得到了大力的发展。作为机器人研究领域的核心问题,即时定位与地图构建(SLAM)引起了各国学者的广泛关注。随着感光元件和视觉传感器技术的不断发展,出现了一批成熟、可靠并且商业化的深度传感器,大大降低了基于RGB-D图像的SLAM问题研究难度,新一轮的SLAM研究热潮开始兴起。因此,本文以计算机视觉为理论指导,对基于RGB-D图像的SLAM问题中关键技术进行研究。主要完成了以下工作: 1)详细介绍了RGB-D传感器Kinect V2,对微软提供的深度信息可视化程序进行修正;以相机成像模型为切入点,介绍相机标定原理及求解方法,对Kinect相机进行了标定实验;根据标定结果对Kinect图像进行配准,并用三维点云显示; 2)为了保证获取RGB-D信息的准确性与可靠性,首先对Kinect深度图像的误差来源进行分析,然后以数字图像中滤波去噪技术为基础,对深度图像降噪算法进行研究,通过对实验结果定量分析后,发现双边滤波算法能够有效降低深度图像噪声; 3)实现了基于特征点的RGB-D SLAM视觉里程计。如果利用CPU对SIFT特征进行提取,需要花费较长的运算时间,无法满足SLAM的实时性要求。因此,使用GPU对SIFT特征提取算法进行加速。实验结果显示,本文所采用的GPU-SIFT特征提取算法相比于原始CPU-SIFT特征提取速度提高6-9倍;在此基础上,利用从2D点的映射中估计物体3D姿态的方法估计出相机姿态; 4)对传统基于拓展卡尔曼滤波的视觉SLAM后端优化算法进行介绍;针对EKF存在的缺点,本研究在后端优化中采用能够有效解决大规模地图创建时存在累积误差问题的图优化算法。通过对基于R GB-D图像的位姿图进行构建,在添加回环检测后完整实现了一个全SLAM过程,并在标准RGB-D数据集进行实验,实验结果显示,在传感器采集图像充足的情况下,估计轨迹与真实轨迹间的误差能够控制在0.1m以内,有效地构建出全局一致的环境地图。