论文部分内容阅读
移动设备中的实时手势控制方法研究,主要是通过文中提出的“基于运动肤色的混合模型”从实时视频信息中确定手势区域、提取手势对象,并通过数字图像的相关操作,优化提取到的手势信息,然后通过Canny边缘检测获取手势轮廓;接下来通过本文提出的“基于边界轮廓拟合直线法向量的角点检测”的方法,快速的提取手势轮廓信息,确定手势语义;然后制定移动设备的相关控制规则,实现实时手势在移动设备中的控制。 本文实现了实时手势在移动设备平台中的手势控制,为移动设备的新型人机交互的实现提供了一种思路。本文涉及的系统的实现过程主要分为三步: (一)实时视频对象中的前景手势提取过程。本阶段分析了现有的实时前景提取方法,对基于肤色的前景手势提取与基于运动的前景手势提取方法分别做了深入分析,研究了其使用的条件和相关的优缺点,提出了基于运动肤色模型的新型手势对象提取方法。此方法给出了在复杂背景、运动背景、强光照条件等条件下手势对象提取的一种新思路。 (二)实现了手势轮廓的分析与手势语义的提取。本阶段通过对第一阶段中提取到的手势对象信息进行一系列的数字图像处理技术,优化了手势轮廓信息,其相关操作有图像平滑、滤波、去噪、形态学膨胀、腐蚀、洪水填充、“二值化”等。然后经过Canny边缘检测,获取轮廓信息,通过本文提出的“基于边界曲线拟合直线法向量的角点检测技术”获取手势轮廓信息,进一步获取手势语义信息。 (三)移动设备的手势控制规则设定。本阶段通过手势控制的规则设定,实现手势与移动设备功能命令的连接。为了避免单一手势所引起的误差性控制,本文引入了手势控制序列(Gesture Queue)实现序列手势对单一命令的控制,实现了实时控制的鲁棒性,并验证了系统实现的可能性与有效性。 经过上述三步,移动设备摄像头所读取的包含手势信息的实时视频信号经移动设备自身的处理,变成了相应的功能控制命令。文中介绍的移动设备作为一个总控中心,对识别出的功能控制命令通过Wi-Fi方式传输,接收端接收传来的Wi-Fi命令,并通过连接的单片机控制电路对相关设备进行控制。本文所提出的方法的优点在手势控制对背景的鲁棒性以及移动设备的手势控制的低运算复杂度上。