论文部分内容阅读
传统的沉浸式视频交互中,用户之间的肢体语言十分受限,不能打造切近真实的自然的沉浸式交互体验。我们提出了基于AHP对沉浸式视频交互中的用户意图进行推断和识别的方法。根据用户的行为,将主观的模糊的意图利子问题求解层次划分和比较矩阵来量化 成可计算的意图概率权值,形成可判别的动作序列产生式,并进行自适应的虚拟场景几何一致性匹配。