论文部分内容阅读
随着计算机图形学、数字图像处理技术和计算机视觉技术的发展,虚拟环境的生成变得简单而高效。交互和显示等设备的生产成本的下降,使得增强现实技术在医疗、机械、标注和可视化、机器人、娱乐和军事等方面都得到了广泛的应用。在增强现实的实际应用环境中,人们经常会为全空间大规模场景构造三维模型。用户在对三维模型的漫游过程中能够体会到虚拟环境带给他们的沉浸感、想象性和交互性。然而,虚拟环境不等于现实世界——虚拟环境不具有场景动态性。为了增强虚拟环境的逼真性和动态性,我们可以向环境中融合真实世界的视频。透过视频,我们可以获知模型该区域发生的事件。本论文实验中的视频来自于布设在道路和楼体等旁边的摄像机。这些摄像机不能发生水平旋转、俯仰和侧倾运动,而且不能对其进行变焦控制。视频和三维模型的融合效果直接决定了用户体验的效果,所以摄像机的视频信息和三维模型的全空间融合是一个值得研究的课题。视频与三维模型的融合技术包括以下研究内容。第一,依据摄像机视频图像的场景结构特征进行直线提取的原理与实现;第二,基于点和直线的二维三维特征对的摄像机标定算法的原理与实现;第三,投影纹理映射算法的原理与实现;第四,视频融合原型系统的设计与实现。原型系统采用Microsoft Visual C++6.0开发平台、Multigen Paradigm Vega 3.7应用程序编程接口、Intel(?) Open Source Computer Vision Library 1.0和Open Graphics Library1.0函数库实现。系统输入是单个摄像机的视频序列,系统输出是该视频序列和三维模型融合渲染的显示。