论文部分内容阅读
机器人视觉伺服涉及机器人运动学、动力学、高速图像处理、控制理论、实时计算等,由于其具有学科综合性,因此研究上具有一定的挑战性。其中,该类系统所具有的高度非线性、强耦合、不确定性等因素及图像处理的实时性要求是影响系统性能的重要因素。此外,近几十年来,智能方法和理论研究进展迅速,它们为对象模型不能精确获得、非线性、时变系统问题的解决提供了一条有效的途径。本文构建了“基于位置的机器人视觉伺服”(PBVS)与“基于图像的机器人视觉伺服”(IBVS)仿真模型及实验系统,对利用遗传算法、神经网络和模糊控制来提高机器人视觉系统图像处理的实时性、解决视觉伺服系统中的非线性、奇异性、模型的不精确性等问题进行了研究,以期提高机器人视觉伺服系统的整体性能,主要完成的工作如下:根据基于模板匹配和遗传算法图像搜索的目标检测算法基本原理,针对其存在的难以应用于目标图像视觉深度发生变化环境的缺陷,提出了基于多模板选择及缩放的图像目标检测方法。该方法在图像搜索遗传种群个体编码中加入模板缩放比例系数和模板类型参数,通过在图像搜索过程中动态构建匹配模板,在摄像机视角变化不显著的条件下,实现了对视觉深度发生变化目标的正确检测。进而通过模板类型参数的寻优,实现了匹配模板的自动选择,提高了机器人视觉系统的易操作性。相关实验结果表明,所提出方法的有效性和实时性能够满足本课题机器人视觉伺服系统对视觉处理部分的要求。对RBT-6T/S04S机器人进行了运动学分析、摄像机标定、利用神经网络求取运动学逆解及视觉伺服控制的仿真研究。在此基础上,实现了基于位置的机器人视觉伺服(PBVS)平面运动目标跟踪实验系统,并将其应用于机器人捕鱼实验。针对捕鱼机器人系统智能水平低导致捕获率不高的问题,对鱼的逃匿运动模式进行了分析,采用神经网络预测鱼的运动轨迹,并在此基础上提出了基于经验和神经网络运动预测的捕鱼控制策略,经与原系统的对比实验表明,该方法提高了机器人捕鱼系统的智能水平,鱼的捕获率得到了显著提高。求解了RBT-6T/S04S机器人的图像雅可比矩阵,并建立了基于图像的机器人视觉伺服(IBVS)的数学模型。基于Peter I.Corke的机器人工具箱提出了串联型机器人IBVS的空间目标抓取的仿真方法,并进行了比例视觉控制率的仿真实验。构建了IBVS实验系统,根据课题中图像目标检测算法中模板缩放比例系数随视觉深度变化的特性,提出了基于神经网络的视觉深度信息的估计方法,并将其应用于比例视觉控制率控制的目标模拟抓取实验,实验结果验证了神经网络视觉深度信息估计的有效性。建立了反映图像特征变化与机器人关节角度之间关系的6个BP神经网络模型,实现了神经网络IBVS控制器,提高了系统的响应速度。但神经网络视觉控制器存在可控范围较小的问题。为了扩大系统的有效控制范围,根据RBT-6T/S04S机器人系统的特点,提出了基于模糊控制与神经网络的机器人视觉伺服分阶段控制策略,将机器人视觉伺服控制过程划分为远端控制和近端控制两个阶段,分别在这两个阶段中使用模糊控制和神经网络控制。解决了神经网络视觉控制器可控制范围较小及多关节机器人模糊控制规则难以确定的问题,相关实验结果表明:这种分阶段的控制策略能够很好地适应机器人视觉伺服系统具有的高度非线性、强耦合、不确定性等特性,相应机器人视觉伺服系统具有较大可控范围,较好的精度和较快的响应速度,为智能方法在基于图像的机器人视觉伺服控制器设计中的应用提供了一条新的途径。