论文部分内容阅读
传统的视频监控往往只是简单地将多路视频拼合在一起,由于不同通道视频间通常无法做到过渡的连贯性,导致不能从全局上,清晰地对场景信息实施监控。通过视频序列的图像拼接可以获取全景信息,但是实时性往往较差。 针对上述问题的存在,本文提出了一种新的高效抗畸变的实时视频拼接算法,来解决实际场景中遇到的拼接画面畸变问题和拼接的实时性问题。该算法能够将多段具有重合区域的视频帧进行拼接得到视野和分辨率更佳的画面帧,最终获得更加开阔视野的视频流,能很好地解决单个摄像机无法良好地覆盖整个视场和流畅呈现画面的问题。算法主要从如下三个方面进行研究提升: 首先,通过建立非线性抗畸变模型(Nonlinear Anti-distortion Model,NAM),对视频图像存在的非线性畸变进行校正,得到重建的图像,尽可能将图像还原到最佳配准的状态(线性变换)。研究表明,图像间配准得到的变换矩阵通常都是线性变换矩阵,当图像存在非线性失真问题时,如果通过以往的方法直接进行图像配准,图像边缘过渡部分配准效果会受到很大影响,甚至无法进行配准。基于NAM的图像线性重建,可以将待配准图像还原到最佳状态,提高配准的成功率,有效改善图像边缘过渡的平滑性。 然后,通过基于 GPU并行化方法提升求解变换模型的参数的效率。配准算法的性能对拼接效率的影响很大,本文在 C/C++编程语言与 CUDA(Compute Unified Device Architecture)的框架下,通过当前备受瞩目的GPU(Graphic Processing Unit)编程,对 SURF(Speeded Up Robust Features)算法并行化实现,改善图像配准的效率。 最后,通过对实践应用和视频帧融合的特点进行分析研究,提出了基于二维标记模板(Two-dimensional Mark Model,2DMM)的去冗余算法,将图像融合所需的参数信息模板化,以寻址的方式替代几何变换的运算,通过计算量的转移,实现冗余去除,对图像融合的效率进行提升。 在视频拼接质量与拼接效率方面,本文算法对传统方法进行了提升,对于研究视频拼接技术的应用和发展有着重要意义。