论文部分内容阅读
随着多媒体技术的发展,大量视频数据日益呈爆炸式速度增长,如何有效管理视频并从中快速获取有用信息已成为当今计算机智能化研究领域中亟待解决的问题,而视频场景分割作为多媒体信息分类与识别的基础,对视频数据的理解发挥着重要作用。传统方法是基于视频的底层特征进行场景分割,没有考虑内容语义信息,准确率不高;基于内容的视频场景分割方法是通过训练底层特征与语义信息的关系模型,构建内容语义特征,进行场景分割,而语义鸿沟的存在,使得视频场景分割技术依然具有极大的挑战。本文主要分析基于内容的视频场景分割,并围绕如何从视频中分割出符合特定内容属性的视频片段进行研究,研究内容主要包括:1、改进了视频场景边界检测的方法。首先针对视频中的局部运动情况,在传统的相邻帧差异性基础上,去掉受局部运动干扰最大的网格,然后改进视频镜头聚类算法,基于时间约束加入镜头滑动窗,并结合镜头发展模式完成场景边界检测。2、研究了视频内容复杂度的测度方法。首先基于视频帧的背景及目标分布情况,提取灰度一致性和边缘特征,然后根据视频中摄像机的实际运动类型改进六参数模型,用于背景运动估计,构建目标的有效运动矢量场,并提取速度熵和方向熵特征,最后提取眼动数据的视觉集中度特征作为辅助信息构建新的特征空间,训练支持向量回归拟合器,得到视频帧的内容复杂度测度值。3、设计了视频内容精彩度的测度方法。通过分析视频镜头间的切换情况,提取镜头切换速率特征,并构建全局运动、摄像机运动类型及稠密光流特征描述运动带给人的视觉冲击以反映视频精彩程度,接着提取局部亮度差异性和颜色能量特征,构建精彩度特征空间训练拟合器,得到视频的镜头精彩度测度值。4、提出了特定内容属性的视频场景分割方法,首先生成相应的视频内容属性曲线,并基于滑动窗检测复杂度曲线中的波谷以及精彩度曲线中的波峰,根据电影视频镜头组接原理定位视频场景中的精彩片段,自适应分割出用户要求时长的精彩视频;对于简单视频片段,则以波谷为中心,从两边选取相邻视频帧并完成分割。为了评测算法的有效性,本文构建了视频数据库并进行测评,实验结果证明本文算法有效,能分割出精彩视频片段与简单视频片段。