论文部分内容阅读
在现代社会信息交流中,视频通信占据着通信数据流量的绝大部分,视频传播前进行压缩是解决视频数据过于庞大导致传输困难的有效办法。尽管目前视频数据的压缩比已经比较高,但动辄数GB的视频数据仍然是网络传输过程中网络带宽不够的主要因素。在视频图像质量不变的情况下,尽可能地令视频数据达到更高的压缩比是科研人员一直追求的目标。目前所面临的主要问题是既要保证令人满意的图像质量,又要尽可能少的占用存储和通信资源。视频压缩的基本原理是利用视频图像数据的空间冗余度和时间冗余度。舍弃不重要的数据信息,尽量使用较少的标志信息来表示大量的像素信息。除了大量的冗余信息可供压缩,利用人眼的视觉暂留来压缩不必要的像素信息也是非常重要的。由于视频编码的重要性,目前该技术正成为多媒体时代最热门的技术之一。随着视频编码在编码性能上的优异表现和试用范围的扩大,新的视频编码技术和对应的视频编码标准不断涌现,视频编码的应用也越来越广泛。伴随着人们对2k,4k甚至8k等超高清视频资源的需求迅速增加,这对新的视频编码技术又提出了更大的挑战。为了提高视频编码压缩率,图像分块编码广泛应用在各种视频编码标准中。这种基于块的编码方法既带来非常可观的性能提升,也带来了不小的问题。在不更改视频编码基于块编码这种框架的前提下,为了解决基于块编码导致视频资源发生的边界效应、振铃效应、图片失真等问题,以往的各个视频编码标准和最新的高效视频编码标准都对编码后的视频数据进行了一定的后处理运算,以减小视觉上的不良体验,同时在一定程度提升编码性能。在最新的高效视频编码标准(HEVC)中已经提出了几种方法(去块滤波和SAO)来缓解这些问题,但无论在视觉主观感受上还是编码性能上仍不能让人满意。因此,我们提出了一个新的思路,使用深度学习网络来设计一个全新的滤波器模型来替代高效视频编码中的后处理过程。本论文中使用的是深度学习中常用的卷积神经网络中,通过随机梯度下降法来学习卷积神经网络中的参数,经过大量的训练和不断地更新网络参数后,我们得到了固定的网络模型。在各个分辨率下的视频编码测试序列中,该网络模型都取得了大量的的性能提升。在对测试视频序列进行详细的测试之后,发现本论文提出的算法远远超过了HEVC中的后处理技术所能得到的性能提升。