论文部分内容阅读
近年来,随着科技的发展,各种网络平台上出现了源源不断的海量视频数据。面对庞大的数据量,处理和分析这些视频数据给计算机视觉与模式识别领域中的视频存储以及视频内容分析带来了较大的挑战。本文中研究的视频目标分割方法关注的重点是将视频中感兴趣的目标从背景信息中分割出来。然而,如何检测出视频中感兴趣的目标,并对此目标进行精确的分割具有一定的难度。目前在视频目标分割任务中存在的主要难点有:(1)视频数据的维度高,数据量大;(2)视频数据中背景信息复杂,目标与背景的分界线不明确;(3)视频数据中的目标容易发生形变。针对视频数据的特点和分割算法中存在的难点,本文提出了两种完全不同的结合先验信息与混合模型的视频中目标分割算法。本文工作主要贡献和创新如下:(1)提出了一种基于显著性检测与混合模型的视频目标分割方法。为了完成从视频数据中自动检测出目标并完成精准分割的任务,本文提出了一种无监督的视频目标分割方法。该方法首先使用了显著检测方法,结合目标运动所产生的运动边缘和目标的外观边缘对视频中的目标区域进行初始化,将目标区域作为先验信息,使用高斯混合模型分别对目标和背景建模,最后用马尔可夫模型对目标进行准确分割,得到像素级别的分割图。实验结果表明,提出的方法能够快速准确的分割出视频中的目标。(2)提出了一种基于深度学习和混合模型的视频目标分割方法。只利用低层的特征信息,无法在复杂场景中取得良好的分割效果。为了学习视频数据中的高层语义特征,本文使用了卷积孪生网络预测目标的大小与位置,将其作为先验信息,使用具有空间约束的狄利克雷混合模型对分割结果进行优化。该方法实现了在给定某视频序列初始帧的目标大小与位置的情况下,快速给出下一帧图像的像素级标注。实验结果表明,结合先验信息的狄利克雷混合模型使分割精度得到提升。本文中提出的两种视频中目标分割的方法都在公开的视频数据集SegTrack、SegTrack v2上进行了验证,并与其他的视频中目标分割方法对比,实验结果表明,两种方法均有良好的性能。