论文部分内容阅读
近年来,人机交互、虚拟现实等技术发展迅速,已经广泛应用于游戏、医疗、教育、体育、影视、传媒等领域。特别是伴随着社会现代化生活水平的改善与提高,人们对于娱乐文化生活的要求也逐步提高,融合上述技术的X-D影院系统相继出现。目前流行的X-D影院系统多缺少观众的群体互动,且3D立体显示技术为群体观众提供的画面都是基于单一视点绘制的,真实感不强。其中,目前流行的7D影院主要是虚拟射击影院,虽然可以允许用户通过仿真枪参与互动,但观众被限制运动,仿真枪价格较高且交互体验有待进一步提高。本文研究提出一种基于双画显示的虚拟射击影院系统,支持敌我双方分别通过佩戴不同立体眼镜观看不同场景画面,画面的大小都是投影幕布的大小,即生成的画面都是完全投影到同一个幕布上。用户可以在允许的范围内任意移动,系统根据捕获的位置实时渲染同一场景的两个立体画面,用户通过佩戴具有特定眼镜看到各自视角位置的影像。系统关键技术主要包括双画立体显示技术、自然交互技术等。立体图像由渲染服务器根据Kinect阵列捕捉得到的用户位置信息渲染,然后提交到3D投影仪,再经过偏光处理,投影到大屏幕上。用户可以通过定制的快门眼镜看到自己独特的视角画面。自然交互输入主要包括基于Kinect阵列的人体捕捉模块及仿真枪控制模块。Kinect网络位置捕捉模块用来捕捉大范围场景下多用户的位置,识别用户的身份。Kinect阵列采用多台Kinect协同工作,多台Kinect捕捉到的实时位置数据经过统一的坐标变换及坐标校正作为多用户交互的实时位置数据信息。Kinect网络解决了单一Kinect捕捉人数有限以及多人运动时会出现的互相遮挡导致数据丢失的问题。仿真枪模块主要负责收集用户射击位置、射击动作、识别用户身份等。其使用自制的无线红外式仿真枪作为射击的交互工具。该方法通过模式识别与算法分析提供不同的射击位置与射击ID,解决仿真枪移动受限以及其造价较高的问题。