论文部分内容阅读
为提高仿人机器人的交互性、协作性和学习能力,需对仿人机器人进行多通道交互行为研究。这些研究包括语音识别、人脸识别、面部表情识别、唇读、头部运动跟踪、手势识别以及体势识别等,其中基于视觉的手势识别以其直观,自然的特点受到众多学者的关注。目前一些比较有效的手势识别算法所耗费的计算资源一般都超出了机器人应用中所能容忍的上限,因此本文考虑到静态手势识别算法的时间复杂度和空间复杂度,提出了一个适用于机器人控制和交互的静态手势识别系统。
本文分硬件和算法两大部分对仿人机器人手势识别系统进行了详细论述。
硬件系统部分首先简要说明了系统框架和仿人机器人视觉硬件平台的特点,然后详细讲述了电机控制板的设计方法与性能,最后讨论了电机的控制方法。本文开发的基于DSP TMS320F2812的电机控制板,主频高,外设丰富,扩展方便,可以采用复杂的控制算法精确地同时控制多个舵机,弥补舵机和摄像头本身性能的不足。
算法部分分为手势定位、手势跟踪、手势分割和手势识别四个部分。
(1) 同时采用时间差分运动检测算法和R-G肤色检测算法给手势定位,可快速较准确地定位手的初始质心位置,为手势跟踪的Camshift算法提供比较准确的初始值。
(2) 为排除复杂背景中的肤色干扰,本文引入了光流跟踪法,用于校正Camshift算法的输出结果。实验表明,结合Camshift算法和光流的跟踪算法,能够很好地处理复杂背景下的跟踪问题。
(3) 手势分割采用了在感兴趣的区域内进行颜色分割的方法,可以较好地减小复杂背景中大部分的肤色干扰。颜色分割首先采用了H阈值法,然后对二值图像进行形态滤波,可减小外界干扰,接着采用The-Chin链逼近算法寻找图像的最大轮廓,最后填充最大轮廓包围的区域,得到了手势分割的最终结果。
(4) 手势识别时,选取图像Hu矩的四个不变矩分量为特征量,利用马氏距离进行分类,用该距离值代表待识别手势和模板手势的相似度,识别结果取与最小距离值对应的模板手势。
实验结果表明,最终实现的系统各项性能指标达到了设计要求,能够实时地识别五个静态手势,手势识别率达92.6%。