论文部分内容阅读
音乐情感识别(Music Emotion Recognition, MER)技术是利用计算机分析和处理音乐特征,研究音乐特征空间与情感空间的映射关系,实现对音乐所表达情感的认知过程。近年来随着人机情感交互技术的广泛应用,音乐情感识别成为研究热点。现有的音乐情感识别方法存在以下两点不足:第一,音乐所表达的感情色彩是随着乐曲的播放不断变化的,基于整首音乐的分析难以准确的表达音乐情感的跌宕起伏;第二,基于音符的音高、音长、音强来分析音乐情感,难以体现音乐的灵魂和内涵。为此本文提出一种分段式音乐情感识别方法。主要工作如下:1、根据音乐的组织结构,给出了一种音乐模型。音乐由若干个具有独立情感语义的乐段构成,乐段由若干个小节构成,小节由音符序列构成,音符具有音高、音强和音长三个特征。为了体现音乐情感跌宕起伏的变化,本文的音乐情感识别是建立在乐段的基础之上的。通过对基本乐理知识的研究,以小节为单位,利用音符的特征提取小节的特征,再根据小节特征将音乐划分为独立的乐段,最后利用乐段的情感识别音乐的情感。2、提出了一种将音乐划分为若干独立乐段的方法。通过对MIDI文件格式的分析,从MIDI文件中解析出音符的音高、音长、音强特征,并根据音高和音强的信息熵提取主旋律音轨,从而得到主音轨中的音符特征,再利用音符特征提取小节特征,构成小节的特征向量,并利用向量夹角余弦判断若干相邻小节特征向量间的相似性,从而把乐曲划分成若干个独立的乐段。3、为了能够更准确的把握音乐的情感内涵,本文抓住乐曲中音符的变化规律,提取乐段的音程、旋律、力度、节拍、节奏、速度等特征,并利用BP神经网络识别乐段的情感。根据Thayer情感模型用向量的形式表示音乐的情感,通过统计某种情感在整首乐曲中出现的比例和具有该类情感的乐段长度之和占乐曲总长度的比例,确定整首乐曲的情感。实验结果表明,这种分段式音乐情感识别方法,更符合音乐的组织结构,能够满足音乐感情跌宕起伏的要求,具有较好的识别效果。