论文部分内容阅读
并联机器人有着刚度大,累积误差小,结构简单可靠,负载大,控制容易,执行速度快等多个优点。现如今,已有将单个摄像机添加进并联机器人当中,但仅能做简单平面形状物体的定位、分拣等功能,无法达到柔性化生产的目的。本文以并联机器人作为机器人的研究对象,提出采用多目视觉的方法,使其具有感知外部三维环境的能力,旨在于提高多目视觉系统的标定效率,提高并联机器人的目标检测精度以及目标检测能力。如何使多目视觉系统具有感知目标三维坐标以及如何将该三维坐标转化为并联机器人可执行的相应参数,需要解决的问题有角点检测问题,参数估计问题以及目标检测等问题。本文对此进行了深入研究,在详细地分析传统方法的利弊的基础上,提出了相应的解决方案,使并联机器人在多目视觉系统的引导下,完成复杂环境下对目标的高精度检测,并实现了面向并联机器人的多目视觉检测系统。对并联机器人的运动学以及整体结构进行了扼要阐述,介绍了摄像机的成像模型和多目视觉检测技术,并根据并联机器人的机械结构特点,设计出本文面向并联机器人的多目视觉检测系统的理论模型。角点检测是为了给计算多目视觉检测系统内外部参数提供原始数据。为了提高单个摄像机标定过程中角点坐标提取的效率与精度,对摄像机标定时使用圆形图案与棋盘格图案遇到的问题进行了详细的分析与总结。对于圆形图案标定板,本文提出并推导了椭圆投影误差模型,通过仿真实验数据详细分析和总结了影响标定误差的各个因素。对于棋盘格图案标定板,在分析了传统开源代码Matlab繁琐的人工操作以及OpenCV无法应用于复杂环境等缺点的基础上,根据黑白方块角点处的灰度值分布特点,本文提出了一种改进的对称方差方法的亚像素角点检测算法,实验结果证明了该算法的有效性。参数估计是对多目视觉检测系统的摄像机矩阵、旋转矩阵以及平移向量等参数的计算。只有获得了检测系统内外部参数之后才能进行目标的三维坐标计算与转换,使并联机器人能识别目标。相比于本文所设计的系统的内部参数来说,外部参数所涉及到的旋转矩阵最优化问题更为复杂。为了更精确地计算出系统中的旋转矩阵,本文根据旋转矩阵估计问题的特点,提出了一种基于凸松弛的混合全局最优化算法,并将该算法应用于解决多目视觉系统标定中摄像机两两之间存在的共轭旋转矩阵估计问题和摄像机与并联机器人之间存在的单旋转矩阵估计问题。该算法综合了交迭算法与凸松弛算法各自的优点,实验结果表明,该算法快速准确地收敛于旋转矩阵估计问题的全局最优解。由于并联机器人的应用范围主要在工业生产分拣与定位当中,工业产品的颜色大多没有区分度,纹理通常也不明显,光照也受现场情况的影响,只有形状才是表征物体最本质的特征。为了提高并联机器人对于各种形状目标检测能力,在详细分析了传统目标检测算法优缺点的基础上,本文根据目标的中轴线或骨架所提供的信息,提出了一种基于二维形状椭圆建模的目标快速检测算法。为了对各种二维的状的目标进行自适应椭圆建模,本文加入了形状复杂度以及信息准则等定义用于建模。由于目标物体在不同角度的成像过程中会发生投影变化,故在形状复杂度的定义里加入了不变矩的一项。由于图像数据为离散二维数据,针对Hu不变矩在离散情况下,尺度不变特性失效的问题,本文提出了改进的离散Hu不变矩。针对二维形状椭圆建模在目标检测过程中计算量大、耗费存储空间等问题,引入几何不变量——形状角,从总体上对多个目标的轮廓进行初步筛选,再利用椭圆建模所提供的模型特征信息进行精确匹配。由实验证明,在目标物体含有噪声时,发生遮挡时,或者发生旋转、平移、尺度变换时均能准确快速检测。最后,结合上述研究内容及算法,研发了面向并联机器人的多目视觉检测系统,并对该系统的性能进行了实验,实验结果验证了本文提出算法的可行性与有效性。