论文部分内容阅读
近年来,深度摄像头因其功能强大、成本相对较低、部署方便,在室内场景建模、机器人自动定位导航等领域得到广泛使用。但是,在利用深度摄像机的深度视觉数据来驱动机械臂进行物体抓取方面,由于对精度和实时性有较高要求,现有方法较难满足要求。本文对这一问题进行了系统研究,论文选题具有较强的理论意义和实用价值。本文提出了一种基于3D点云配准、深度摄像头驱动的机械臂自动物体抓取方法。具体来讲,本文结合RGB-D数据的相关特点,对基于视觉驱动的机械臂定位与抓取问题进行了综述,梳理出当前机械臂领域的研究与应用现况。之后,本文给出了一种新的深度数据驱动的机械臂抓取算法框架,并将其分为区域分割、物体分类、点云配准以及机械臂驱动四个算法模块,具体工作包括:1.预处理与3D抓取区域的标注:使用3D扫描仪对常见桌面级物体进行建模,并在3D点云模型上标注出物体的可抓取部位;之后采集物体的二维图片,以训练分类器;2.结合深度与颜色信息的物体筛选:利用深度摄像头采集的深度信息对二维图片进行区域分割,再利用预处理时生成的物体分类器进行分割后的区域进行分类,得到物体的二维候选区域;3.点云配准:利用深度信息和摄像机的内参生成点云数据,进而利用生成的点云数据和扫描物体的点云数据进行点云配准,获取空间的转移矩阵,最终通过转移矩阵将物体的可抓取部分映射回深度相机的三维空间;4.视觉驱动的机械臂抓取:利用棋盘标定来估算外参后,将相机空间预测的区域转换到机械臂空间,从而驱动机械臂实施抓取任务。本实验采集了五类常见的桌面级物体(瓶子、茶杯、易拉罐、茶壶和盒子),分别对其建模并利用提出的算法进行了测试,并利用杰卡德相似度作为评判标准。实验结果表明,本文所提出的方法取得了良好的效果。