论文部分内容阅读
视觉伺服可以对机器人工作环境进行辨识、定位,通过闭环反馈提高机器人的操作精度,使机器人在非结构化环境中的应用成为可能。如何实现多视觉融合、机器人抓取动态物体以及实时避障都是机器人研究领域的热点问题。
本文采用混合的全局/局部双目视觉系统,运用基于径向约束的两步标定法标定出了全局和局部摄像机的焦距和6个外部参数,通过射线法解决了物体特征点的3D定位问题并进行了相关的实验。实验结果显示,双目视觉的定位误差可以控制在10mm以内。目前,扩展卡尔曼滤波是实现多视觉融合普遍采用的方法之一。为了提高对运动物体的预测精度,本文先给出了一种简单的精度度鼍方法,然后通过选择不同的特征点集合进行数值仿真,提出了以最大内切圆半径为标准动态选择特征点的策略。
为了实现机器人抓取传送带上的运动物体,本文将抓取步骤划分为跟踪段和接近段。采用雅可比矩阵研究了机器人在这两个阶段的位置和姿态规划方法,以降低机械手在启动阶段和抓取运动物体瞬间的运动冲击。此外,为了解决机械手无法抓取快速运动的物体,本文提出了一种偏移量补偿的方法使机械手能够抓取速度提高了1倍的运动物体。采用该方法机械手不仅可以抓取工作空间中的动态物体,还可以抓取静态物体。为了验证该方法的有效性,对机械手抓取静态物体进行了在线的实验,同时对机械手抓取动态物体进行了离线的实验。实验结果表明,机械手可以准确地抓取到目标。
基于安全区域的概念,本文采用广义逆对冗余度机器人实时的避障算法进行了研究。给出了一种利用机械手自运动实现的避障算法,然后对该避障算法进行了计算机仿真,最后在视觉伺服平面三自由度机器人平台上进行了在线实时避障实验,验证了该算法的有效性。