论文部分内容阅读
随着制造强国战略“中国制造2025”的实施,基于视觉的机器人相关技术被广泛应用在工件搬运、装配等领域。但在实际生产中对目标工件检测与位姿估计的智能化程度还不高,尤其在非结构化的环境中,背景混乱、互相遮挡等场景仍然对现有算法构成挑战。采用高性能视觉传感器组成的三维检测系统可以获得目标工件的几何信息,但昂贵的价格制约其在实际生产活动中的普及应用。本文提出采用廉价的Kinect V2传感器获取彩色图像和深度图像作为信息源,在非结构环境下对散乱工件进行检测与位姿估计进行研究。论文开展研究内容及创新点如下:1)研究基于Kinect V2传感器精确获取目标工件的点云数据。利用平面物标定技术建立深度图像和三维点云的变换关系。针对Kinect V2在获取深度图像中存在离散的噪声、空洞等缺陷进行数据处理。利用引导滤波在去除噪声的同时保护原始图像的边缘特征,分析调整参数和窗口半径对图像质量及边界轮廓影响,提出最佳选择参数;基于RGB图像利用联合双边滤波对深度图像的空洞进行处理,分析参数影响,并通过实验测试空洞填补的数量和质量。2)研究基于多特征三维物体模板的匹配算法。针对现有Line MOD多特征模板匹配算法对检测目标前景有遮挡、无法识别以及检测目标几何结构对称而出现重复检测结果的缺点,采用非极大值抑制和滞后阈值的方法去细化边缘轮廓,得到目标物体和当前场景的最优轮廓。改进后的模板特征数量大于Line MOD模板匹配计算的特征,计算耗时会增加,为此采用图像金字塔搜索法进行快速模板匹配。然后,针对改进后的方法重新定义模板匹配的相似性函数,检测计算模板图像与场景图像邻域窗口的相识度。3)改进迭代最近点(ICP)精确配准算法。从实际应用出发,在经典的ICP算法精配准的基础上,从如何提高配准速度的方面进行改进。采用了体素栅格下采样方法对点云数据进行下采样;然后利用KD-Tree对下采样的点云数据建立拓扑关系,实现基于邻域关系的对应点对快速查找;最后,对匹配后的模板点云数据和目标工件点云数据中的对应点对使用欧式距离阈值剔除错误点对,降低点云的配准误差。