论文部分内容阅读
本文以RoboCup为研究背景,针对动态环境下中型组足球机器人基于视觉的目标检测与定位定位问题开展研究。目前大部分参赛队伍使用全向视觉系统作为视觉感知模块,尽管该系统具有视野广的优点,可以在不移动相机的情况下获取环境的全景图像信息,但它也存在不可避免的缺陷,如无法准确获取目标的高度信息以及障碍物检测算法过度依赖障碍物颜色特征等。论文首先针对全向视觉系统的不足,设计了RGB-D视觉系统,该视觉系统由嵌入式开发板Jetson TX1与Kinect v2相机共同构成,用于辅助全向视觉系统感知环境。该视觉系统为本文提出的算法提供了一个稳定而可靠的硬件平台,这为以后的研究奠定了基础。然后,基于所设计的硬件平台,本文提出并实现了基于并行计算的目标检测与定位方法。该方法利用足球的颜色与深度信息对足球进行检测与定位,以及利用障碍物在点云中的形状特征对障碍物进行检测与定位,所涉及的算法均基于CUDA实现并行计算以提高算法运算速度。实验结果表明,该方法用于RGB-D视觉系统,相比于全向视觉系统能更准确地检测与定位目标。此外,该方法对障碍物的检测不依赖于颜色特征,在满足比赛实时性要求的同时能准确检测任意颜色的障碍物。最后,基于该硬件平台,本文尝试了使用基于卷积神经网络的方法对我方与对方机器人进行检测与定位。该方法主要分为两个阶段:机器人检测与机器人定位。其中机器人检测包括数据集制作、图像预处理过程加速等,机器人定位包括图像配准与点云生成、排除干扰信息以及结合深度信息进行定位。最后,使用测试数据集对训练的卷积神经网络性能进行评估,得到对机器人检测的平均检测准确率(mAP)为93.66%,且通过图像预处理加速过程使检测过程的处理帧率由9Hz提高到18Hz。实验结果表明:本文设计实现的目标检测与定位算法在满足比赛实时性的同时能准确检测与定位目标,且对障碍物的检测不依赖于其颜色信息,弥补了原来全向视觉系统的缺陷且提高了系统的鲁棒性能,是在实际应用中可行的技术方案。