论文部分内容阅读
本文提出了一种基于人体骨骼信息的体感交互方式。首先利用Kinect传感器获取图像景深数据,并通过骨骼追踪技术来捕捉各关节点位置,以匹配人体的各个部分,建立人体各个关节的3D坐标。然后利用3D坐标值、偏移量计算出人体的腰、肩、脚的动作和转动角度。通过Unity 3D和Kinect数据通信的中间件,将Kinect端的骨骼点数据和RGB流接收,实现了使用者身体直接控制Unity3D模型的测试。