论文部分内容阅读
全景视频拼接是指采用视频流拼接技术将几段相互间有重合区域的视频流拼接成一整段分辨率更高的视频流,然后输出一个视域更宽的全景视频。全景视频拼接可用于虚拟现实、安全监控、辅助车载、远程桌面等。本文主要研究像机标定与颜色校正的图像融合算法及其GPU实现,研究工作包括以下方面:构建了一种基于几何校正与流场变换的全景图像拼接架构。常用图像配准是基于特征点匹配方法,这类方法对简单拼接效果很好,但在复杂场景如遮挡、视差等有鬼影和人工痕迹。本文采用的构架是使用几何标定获得单应矩阵并将图像投影到同一平面内,然后采用流场能量函数对图像的重合区域进行流场估计,从而可得到高效的高质量的拼接效果,并能很好地去除拼接时重合区域产生的鬼影。提出了一种基于融合区域的SURF自动标定方法,解决了摄像机参数不精准的问题。由于实际中获取或者间接计算得到的摄像机内外参数不准确,得到单应矩阵不精确,最终得到低质量的拼接图像。本文采用不准确的单应矩阵,计算得到粗略的重合区域,再增加阈值得到融合区域,并在该区域进行SURF特征点匹配,减少寻找特征点的区域大小,从而节省检测特征点时间。该方法不仅得到高精度的单应矩阵,而且减少了检测特征点所需的时间。提出了一种基于时空信息的在线颜色校正算法,解决了视频颜色不流畅问题。主要是在重叠区域进行颜色匹配,在整个拼接图像进行颜色平衡,而对于视频图像颜色校正需要加上前几帧图像的颜色信息即时空信息。该算法不仅使得视频图像帧内的颜色更加真实,而且帧与帧之间的颜色更加流畅。本文处理对象是高清视频(分辨率为1920?1080),运算量大,计算复杂度高,需要满足视频实时性,挑战很大。对本文的图像融合算法进行GPU优化,提升拼接过程的速度,从而达到系统的实时性。