论文部分内容阅读
弹幕是近几年开始流行的一种新的交流方式,观众可以在观看视频时表达自己的观点。但由于弹幕兴起时间较短,所以目前对这一方面的研究较少,但弹幕中包含了大量的情感信息,可以反馈观众在观看视频时的情绪变化,同时又和视频本身息息相关。根据弹幕情感对视频关键帧进行情感标注,可以方便用户根据关键帧情感来选择该帧进行视频播放。论文完成的主要工作如下:(1)提出了一种新的CLSTM网络模型用来进行弹幕情感分类,通过人工标注建立了一个5分类(乐、好、恶、怒、愁)的弹幕语料库。CLSTM网络模型是一种基于长短期记忆网络(LSTM)和卷积神经网络(CNN)进行改进的新型网络结构。实验通过4种网络模型对弹幕进行情感5分类,实验结果表明,本文提出的CLSTM模型比单独的CNN,RNN和LSTM网络模型都取得了更好的分类精度。(2)首先对层次聚类算法作出改进,同时提出一种新的HC-FCM算法用于提取关键帧。该算法是在改进的层次聚类和模糊C-均值聚类算法的基础上提出的。实验中通过3种算法进行关键帧的提取,实验表明我们的算法比层次聚类和FCM聚类有更好的提取效果。之后根据关键帧对应的弹幕情感对关键帧进行情感标注,以便在系统实现中,使得用户可以根据关键帧情感选择视频播放位置。(3)设计和开发了基于视频弹幕情感进行搜索的视频检索系统。该系统包含了 5大模块。并且将前面各章介绍的算法应用在了各个模块之中。最后对系统中各个模块的功能进行了测试,通过测试表明,本系统各个模块性能良好,运作正常,能够满足用户的基本需求。通过对情感分类算法和关键帧提取算法的研究,为用户提供了一种新型的视频检索方式,并提取了弹幕中包含的大量情感信息,对关键帧进行了情感标注,实现了用户多元化的搜索需求。