论文部分内容阅读
随着数字音乐技术的迅猛发展和手机等移动设备存储容量的增加,如何快速、有效地检索音乐信息成为迫切需要解决的问题。传统基于文本的检索方法,只能对有标注的数据信息进行检索,这需要人工先对这些信息进行描述和分类,随着数据库容量的不断增大,人工输入标注属性的方法不能满足人们对海量信息的需求,且人工对音乐的描述属性高度主观,难以表达蕴藏在音乐数据中丰富的内容以及内容感知描述的直观性。此外,随着数据容量的增加,用户很难记住所有数据的描述信息。因此,希望找到一种更加方便、快速的检索方法。基于内容的检索方式不依靠标注信息,它从新的角度来管理音乐信息。根据音乐中的旋律、音高、节奏等信息进行检索。哼唱式音乐检索是基于内容的音乐检索方法之一,它允许用户通过哼唱的方式来查找所需的歌曲。本文以此展开研究工作,要实现基于内容的哼唱式音乐检索系统必须对三方面的内容进行研究:人哼唱的音频数据特征提取、数据库中旋律特征的提取和表达、旋律特征的匹配检索。基于内容的音乐检索研究主要有两类,一类是针对基于乐谱的符号数据存储格式(MIDI)的音乐数据,另一类是针对用声学信号表示的音频数据存储格式(Wav、MP3)的音乐数据。前者已有较充分的研究,而迄今为止对后者的研究尚不多。本文对这两种类型数据库的哼唱检索方法展开研究,改进了现有面向MIDI数据库检索方法,使其具有较好的噪声鲁棒性,提高其检索的速度。对于Wav/MP3数据库,本文提出了一套基准检索系统。系统设计过程中采用了计算听觉场景分析,音乐节奏检测,基于GMM的歌声段检测、基于HMM的音高跟踪机制等技术。我们通过详细的实验证明了系统的有效性和可行性,并给出了详尽的比较结果。