论文部分内容阅读
该学位论文着重讨论基于Sprite技术的视频编码和分割算法.首先,该文提出了一种快速鲁棒的Sprite生成算法,并以离线背景Sprite生成为例进行描述.尽管MPEG-4标准包含了静态Sprite编码工具,但Sprite的生成仍然是一个开放的问题.该文提出的方法一方面可以提高Sprite生成的质量,另一方面还可以提高Sprite生成的速度.考虑到视频对象的分割数据通常并不精确,该文提出一种基于可靠性的图像混合策略用于Sprite生成,该技术可被视为由分割掩膜所获得的具有不同可靠性的像素的非线性组合,并且在没有分割掩模数据输入时,该文还提供一个结合Sprite生成过程的简单图像分割工具.此外,为了提高Sprite生成的速度,该文提出一种快速的全局运动估计算法,该算法将空间和时间特征点选择模块嵌入到全局运动估计的分层实现中,其计算复杂度可控,因而可获得Sprite生成的质量与速度的最佳平衡.其次,该文提出一种高效的基于静态Sprite的视频编码方法,与传统方法相比,其主要不同之处在于如何有效地压缩静态Sprite图像.该文提出的方法基于任意形状的空间预测和近似离散余弦变换来实现.鉴于现有空间预测技术还不能有效处理具有任意形状的视频对象,我们提出一种基于率失真优化理论的图像扩展技术,该技术虽然简单,但可以使边缘块经过扩展以后的纹理与其相邻块的纹理十分近似,因而对编码十分有效.为了进一步提高编码效率,该文还提出一种新型的变换系数扫描策略,根据变换系数的分布不同,分别设计不同的变换系数扫描顺序表.与MPEG-4静态Sprite编码方法相比,该文提出的方法在低码率时可以提高编码效率多达3.0分贝的峰值信噪比.再次,该文提出一种高效的基于动态Sprite的视频编码方法,该方法借鉴最新国际标准H.264/AVC中的一些先进技术,并在此基础之上充分利用Sprite技术的先进性.为了给视频的预测编码生成另外一种可选择的参考图像,也即动态Sprite,该文将前面提出的Sprite生成技术进一步发展为在线Sprite生成,相应地,针对动态Sprite预测定义一些新的预测模式.与传统的动态Sprite编码方法不同,该文提出的方法相当于实现两级运动补偿预测,换言之,在全局运动经过Sprite变形得到补偿之后,会通过局部运动补偿技术进一步补偿全局运动估计产生的微小偏差.最后,为了进一步扩展Sprite技术的应用,该文提出一种基于背景Sprite的视频对象分割算法,该算法同时提取背景中时域信息和前景中的空域信息.Sprite图像通过背景的时域等归叠加生成,因而包含了视频序列中背景的所有可见部分.通过将每帧图像减去从Sprite图像获得的背景可以检测到初始的前景区域;同时,还可以通过水线算法将原始的图像帧分割为许多纹理一致的区域并保留了精确的边缘;进一步的合并和细化可以提取最终的前景边缘.该文所采用的背景Sprite图像通过适用整个视频序列的多参数运动模型而生成,因此该文提出的方法较之简单利用相邻图像帧之间差分信息的方法更加鲁棒.