论文部分内容阅读
赋予机器人在复杂多变环境下实现对工件的三维稳定测量和精准位姿识别能力是机器人无序抓取领域一项非常重要的研究内容。本文围绕结构光视觉高精度三维测量与工件位姿识别问题展开研究,对面结构光编解码相关技术进行了改进,并构建了完善的面结构光三维测量系统;基于面结构光测量得到的三维点云数据,使用深度学习的方式实现了工件分类,并提出了融合二维和三维信息的工件位姿估计方法,完成了从三维测量到位姿识别的完整过程。本文的主要研究成果如下:1.面结构光视觉高精度三维测量方面:针对现有面结构光三维测量方法中测量效率低,扩展性差的问题,提出了一种融合RGB通道正反格雷码及条纹块平移的编码方法,在传统格雷码编码方式的基础上,增加了正反编码技术,提高了测量的准确度,使用彩色通道编码的方式,在保证系统测量精度的同时提升了测量效率。在解码方法上提出了基于灰度矩的面结构光系统亚像素精度解码方法,从算法的角度突破了硬件的限制,在不改变硬件条件的情况下提高了面结构光系统的测量精度,降低了系统成本。构建了面结构光三维测量硬件平台并开发了配套使用软件,同时开展了相关的精度验证和应用实验,实验表明面结构光三维测量系统的测量精度可以达到0.01 mm。2.基于点云的工件位姿识别方面:使用深度学习的方法对点云数据进行分类,对PointNet网络架构进行改善,提出了基于迁移学习的工件点云分类方法,克服了点云数据无序性、相互关联性和变换不变性造成的困难,该方法同时具有快速学习的能力,能够在少量数据的支撑下快速训练并得到较高的分类准确率。构建了工件点云数据集,并在数据集上验证了方法的有效性。提出了融合二维和三维信息的位姿估计算法,利用二维图像的SIFT特征进行粗匹配,并根据粗匹配结果将三维点云模板放置在合理的初始位姿上,随后使用迭代最近点方法对工件三维点云进行匹配,加速算法收敛的同时有效避免了迭代最近点方法陷入局部最优的问题,能够准确地估计出工件的位姿。