论文部分内容阅读
随着人们对3D视频更高分辨率、更强立体感的需求增加,多视点视频信息使存储和传输的数据量急剧增加,立体视频编码迎来挑战,阻碍了立体视频的发展。面对这一难题,为了提高立体视频的编码性能,立体视频编码联合组发布了新一代立体视频编码标准3D-HEVC,该标准以新一代高效视频编码标准HEVC(High Efficiency Video Coding)为基础。3D-HEVC标准沿用了HEVC标准的混合编码框架,并采用多视点加深度(Multi-view Video Plus Depth,MVD)的视频格式,包含多视点纹理视频和对应的深度视频,3D-HEVC利用时域、空域和各个视点间的相关性进行编码,使3D视频有很高的压缩效率。但是编码效率提高的同时计算复杂度急剧增加,这严重限制了3D-HEVC的实际应用。因此,研究如何保持编码效率不变并降低编码计算复杂度具有重要意义。本文通过对3D-HEVC的编码框架以及关键编码技术进行分析介绍,并对3D-HEVC编码复杂度进行统计分析,最后提出对其中复杂度较高的帧内预测过程进行了如下一系列的优化。本文提出了两种快速帧内编码方法,具体内容如下:第一,针对深度图包含大面积平坦区域和少部分边缘区域这一特点并结合纹理类型提出一种基于双阶纹理判断的帧内预测快速算法。该算法通过对编码块进行双阶纹理判断,即判断编码块是否平滑,在编码平滑区域时可以提前终止编码块划分,并且跳过DMMs模式;在编码非平滑区域时可以跳过当前尺寸的编码过程并直接划分为更小块进行编码。该算法首先利用差分矩阵计算编码块的梯度和来表示纹理复杂度,然后将当前纹理复杂度和子块纹理复杂度与阈值进行比较,执行不同的编码操作。实验结果表明,与原始3D-HEVC算法相比,本算法实现合成视点平均比特率仅增加0.38%,平均减少44.8%的编码时间。第二,针对编码块分割结果和视频内容紧密相关,在帧内预测中提出一种基于ATS_CNN(Adaptive Terminated Stratification-Convolutional Neural Network)网络的CU尺寸快速预测算法。ATS_CNN网络是一种自适应终止分层的卷积神经网络,通过视频内容自动提取特征,来学习CU划分结果,将原始CTU输入到预测模型中,结构化输出CU划分结果,,实现利用深度学习降低3D-HEVC编码复杂度。本算法能减少58%深度编码时间,并且合成视点质量基本保持不变。