论文部分内容阅读
随着网络技术的蓬勃发展,在互联网上出现了越来越多的音乐下载服务以及在线音乐播放服务,而在这背后是海量的数字音乐。一个问题是当用户在接受这些服务的时候,往往面对过多的资源而望洋兴叹,不知道哪些音乐才是最符合他们口味的。因此对音乐进行分类,按照不同的类别提供歌曲方便用户查询,是一项有意义的研究。目前互联网上常见的分类方式是按照歌曲的外在特征检索,例如按照歌手,乐队,年代,专辑等等文字进行分类。这种方式的优点是实现方便,但其缺点也是显而易见的,把分类条件局限于外在的文字,而忽略了人们对于音乐的直接感受,因此经常不能为用户提供最精确的检索途径。
随着对高质量的音乐分类越来越迫切的需要,很多基于内容的音乐分类方法被提出,这些方法提取了音乐本身的一些特征,例如音乐的旋律[31],或者演奏风格[40]等等。由于音乐本身旨在表达了人类的一种情绪,因此在旋律和风格等音乐分类体系之上,音乐类别的划分还应该体现出情绪相关的因素,所以需要探讨基于情绪音乐分类的方法,寻找和音乐所表达情绪相关的新特征,从而有效地对音乐进行分类。本文从如下几个方面对基于情绪的音乐分类进行探索:
(1)综合阐述了情绪的本质,证明情绪能够被音乐所表达,并建立了和音乐相关的情绪维度模型。
(2)总结了音乐用于表达情绪的特征,并提出两个适用于基于情绪音乐分类的新特征:音乐的上下行与声音强度频率比。
(3)通过比较实验说明,对于有着一定内在规律的音乐,通过制定规则来分类在一定程度上会优于统计机器学习的结果,并证明了所选用的两个新特征的有效性。