论文部分内容阅读
机械手视觉伺服是一种利用视觉信息对机器人运动实施反馈控制的重要方法,与传统控制方法相比,能提供更高的设计灵活性、任务精度以及智能化水平,受到了广泛关注,是机器人领域的重要研究方向。与基于标定的运动学视觉伺服方法相比,无标定动态视觉伺服方法无需对系统参数进行精确标定从而避免了精确标定的繁琐性、困难性,可在仅提供这些参数的粗略值或最佳估计值甚至任意估计值的条件下保证很高的系统性能,并且由于考虑了机器人的非线性动力学,还能更好地适用于高速、高性能的视觉伺服场合,是一个有前景的视觉伺服方法,成为了目前视觉伺服领域的研究热点。本文在现有研究成果的基础上,对无标定动态视觉伺服方法做进一步的深入研究。本文首先对传统视觉伺服方法的基本问题进行介绍,综述了无标定视觉伺服方法的研究结果。然后,论述了视觉伺服方法中最基本的运动学建模方法,详细推导了场景、手眼两种视觉系统下的基于位置的以及基于图像的视觉伺服运动学模型,加深了对视觉伺服方法核心问题的理解,便于进行各种视觉控制器的设计,也为本文的研究提供了坚实的理论基础。现有的近似雅可比控制方法能在仅利用系统参数粗略值或最佳估计值的情况下保证系统的渐近稳定性,但却均需利用关节角速度精确测量值。本文提出了一种无关节角速度测量下的近似雅可比控制策略,设计了两种滑模观测器策略对关节角速度进行在线估计,并详细分析了这两种设计的系统稳定性,有利于提高视觉定位系统在实际环境中的控制性能。现有的基于自适应雅可比的任务空间跟踪方法能同时处理运动学和动力学的不确定性,但需用到任务空间速度或关节空间速度甚至两者的精确测量值,其系统性能会在实际应用中受到测量噪声的严重影响。为了进一步提高控制性能,本文提出了一种无任务空间和关节空间速度测量下的自适应视觉跟踪方法,设计了三种滑模观测器策略对关节角速度进行在线估计,详细分析了这三种设计下的系统稳定性。与基于自适应雅可比的自适应视觉跟踪方法只能用于深度参数恒定不变或缓慢变化的场合不同,基于深度独立雅可比的无标定视觉伺服方法可处理最一般的三维运动问题,对深度参数无任何限制,也能处理摄像机内外部参数的不确定性,是一种有前景的视觉伺服方法。在现有的基于深度独立雅可比的多特征点场景视觉跟踪方法中,设计的用于估计摄像机参数的自适应律需利用无法得到的深度参数精确值,在实现阶段只能利用估计值进行代替,但是此方式再也无法从理论上保证系统的渐近稳定性,甚至稳定性。为了解决此问题,本文提出了一种改进的利用深度参数估计值进行设计的自适应律,并在此基础上设计了一种初始状态无关的自适应律,均能从理论上保证系统的渐近稳定性。为了处理场景视觉伺服中特征点坐标参数的不确定性,本文提出了一种新的基于深度独立雅可比的运动学建模方法,能同时处理摄像机参数以及特征点坐标参数的不确定性。在此基础上,提出了同时适用于场景、手眼两类视觉系统的运动学模型统一框架,研究了此统一框架下的视觉定位、跟踪控制器设计问题。为了解决统一框架中的过参数化问题,本文设计了一种新的基于深度独立雅可比的参数估计策略,实现了摄像机参数与特征点坐标参数之间的解耦估计,减少了待估计参数数目,并降低了计算复杂度。为了解决期望图像轨迹的相容性问题,本文提出了一种新的场景视觉系统下的图像空间无标定路径规划算法,可在摄像机内部参数以及物体三维模型均未知的条件下产生用于连接初始、期望图像特征的中间参考图像特征。通过考虑机械手动力学,本文利用李雅普诺夫理论证明了在所提方法控制下系统的渐近稳定性,利用仿真研究以及初步的实验研究验证了所提方法的有效性。