论文部分内容阅读
基于当前人工智能技术发展的大背景,机器人技术日新月异。自动引导车(Automated Guided Vehicle,AGV)作为机器人的一个重要分支,也面临着新的挑战和机遇。对于传统的全球定位系统(Global Positioning System,GPS),应用于室内机器人的定位功能时,机器人在室内局限区域内定位精度具有一定的不确定性。同时,实现路径规划和引导功能时,传统的预设轨道和追踪二维码等方法,均对外界辅助设施具有极高的依赖性,灵活性差,当空间内部的物品摆放发生动态变化时,空间的有效利用率较低。针对以上AGV定位与路径规划存在的问题,本文结合了同时定位与地图构建技术(Simultaneous Localization and Mapping,SLAM)的主流算法框架 ORB-SLAM 来实现AGV的定位功能,并研究了基于强化学习智能算法的路径规划策略。研究工作如下:首先,研究了视觉SLAM系统的工作原理,由于RGB-D传感器既可以获取彩色信息又可以获取深度信息,因此采用微软生产的RGB-D相机Kinect1作为唯一的外部传感器对环境信息数据进行采集。针对Kinect1的工作原理及成像模型进行分析,并推导了基于视觉SLAM的前端里程计实现原理。针对特征点的提取与匹配,结合ORB算法实现对传统的特征描述缺陷的改进。通过分析两帧之间的信息,以粗略地估计相机运动,并采用随机采样一致性(Random Sample Consensus,RANSAC)算法和迭代最近点(Iterative Closest Points,ICP)算法求解相机位姿。其次,针对AGV定位问题进行研究。讨论了定位问题的分类方式,针对不同的定位问题进行了相应的分析。对比研究了几种常用的定位算法,包括基于概率滤波的马尔可夫定位算法,基于粒子滤波的蒙特卡洛定位算法,以及自适应蒙特卡洛定位算法。采用占用栅格地图作为环境建模的地图,并完成了栅格地图的算法实现。最后,将强化学习方法应用于机器人路径规划任务中,分别实现了静态环境和动态环境下的路径规划。针对静态环境,采用栅格法对空间建模,利用Q-Learning算法对机器人进行训练,实现了栅格环境下的机器人路径规划。针对动态环境,在传统人工势场法的基础上,提出了一种基于势场的强化学习路径规划算法,通过合理设计连续的状态和动作空间、奖励函数,建立马尔可夫决策过程,采用深度确定性策略梯度算法(Deep Deterministic Policy Gradient,DDPG)进行训练优化,实现机器人路径规划。通过仿真实验的对比分析,证明了算法的有效性和稳定性。