论文部分内容阅读
全景作为一种方兴未艾的技术,能扩大视角、在同一时刻显示大范围场景信息,在卫星航拍、视频会议、场景监控、交通导航、虚拟现实、摄影等多种科研、商业及艺术领域具有广泛的应用前景。目前,对于静态全景图像,除少数应用中采用超广角镜头或鱼眼镜头直接拍摄外,主要采用图像拼接及融合等软件算法来实现。对于动态视频,则主要依靠特殊的硬件系统:一种方案是采用快球系统,通过快球的高速运动捕获大范围的场景,但由于旋转速度的限制,不可避免的存在盲区;另一种方案是采用配有全景镜头的专业摄像系统,但这类系统存在价格昂贵、使用复杂、无法扩展等缺陷。本文在对现有软硬件全景技术深入分析的基础上,提出一种基于网络摄像头的多视全景视频生成方法,并通过实验证明了该系统的可行性与实用性。首先,对全景视频所涉及的技术进行了广泛调研,并概述了本系统的基本框架。其次,分章节详细阐述了特征提取、特征匹配、实时投影及融合等主要模块的算法原理及实现细节。然后,对系统进行了GPGPU(General-Purpose computation on GPUs,即GPU上的通用计算)优化。最后,对系统的整体性能进行了实验分析与评价。本文主要工作和特色如下:1.针对现有全景视频系统需要特殊硬件的限制,提出基于普通网络摄像头的多视全景视频生成方法,同时采用模块化设计,可根据需要对摄像头的数量进行调整,因此本方法具有价格低廉、使用方便、易于扩展等优点;2.设计了基于SIFT算法的特征提取与匹配模块,可处理平移、大角度旋转等极端情况下的视频帧配准,从而使摄像头的拍摄角度和方向灵活可调;3.针对视差情况下的鬼影现象,提出一种非线性融合算法,当相邻摄像头间存在较大视差时,该算法可有效避免经典线性融合算法的鬼影现象;4.研究了GPGPU优化技术,并对系统中运算量最大的特征提取单元进行了硬件加速,从而提升了系统的处理速度。