论文部分内容阅读
在穿戴设备迅速发展背景下,基于穿戴视觉的人机交互技术受到了广泛的关注。它涉及了视觉交互技术、计算机视觉、穿戴计算等诸多领域,主要研究在穿戴视觉环境中以人为中心的视觉技术与感知模式,旨在人、穿戴设备、环境之间建立自然与高效的交互通道。本文主要研究了基于穿戴视觉的静态手势识别技术,对静态手势识别技术中的手势分割和手势模型等问题展开了探索与研究。在穿戴视觉条件下,静态手势识别面临诸多问题与挑战。手势分割是静态手势识别中非常重要的部分,但是受光照变化、复杂背景、拍摄抖动、拍摄角度变化等因素影响,手势分割很难得到理想的结果。针对这个问题本文提出了基于自适应高斯模型和多层感知器结合的手势分割方法。首先分析了肤色在YCbCr颜色空间的聚类性和对光照强度的鲁棒性,选择在YCbCr颜色空间上建立肤色模型。然后应用有良好肤色聚类性的中值滤波作为图像预处理的主要手段。再将固定阈值、单高斯模型与多高斯模型结合,构建了自适应高斯模型,利用该模型对手势图像进行分割得到肤色似然图。最后将肤色似然图分为背景与前景(手势)两部分作为多层感知器的输入,得到手势分割结果。实验结果表明该方法对复杂背景、光照变化和拍摄抖动具有一定的鲁棒性。在穿戴视觉条件下,手势分割的结果存在一定误差,需要建立对误差有较强鲁棒性的手势模型。针对这个问题,本文提出了基于几何归一化和改进的形状上下文手势模型。首先通过几何归一化的方法获取了完整的静态手势图像,然后去除手臂的干扰,计算人手区域的主方向。再应用内距离替代了形状上下文中的欧几里德距离,提高了对非刚性物体活动的鲁棒性。最后以掌心与指尖为形状上下文的参考点,按照人手区域主方向生成内距离形状上下文描述子,通过多层感知器进行分类,得到识别结果。实验结果表明该方法对手势分割误差、人手非刚性运动具有一定的鲁棒性,并且解决了传统形状上下文参考点过多的问题,加快了手势识别的速率。