论文部分内容阅读
在科技及网络的不断发展,多媒体技术及设备数量飞速增长的环境下,音频数据作为多媒体数据的重要组成部分,其信息量也在不断的增长。在海量音乐数据库,传统的音频检索方式给用户的使用带来种种的限制,用户已经不满足于这种基于文本的音频检索,这对音乐检索提出了更新、更高的要求。自然、方便、有效的哼唱音乐检索是一种基于内容的音乐检索方式,有着广泛的应用前景和重要的研究价值。该方式允许用户以哼唱的形式来检索所需的歌曲,用户无需记住歌曲的名字、演唱者或者歌词,只要哼出歌曲的旋律就能找到想要的歌曲。本文对MIDI音乐数据库的哼唱音乐检索系统的关键技术进行了研究,主要有三个方面:MIDI音乐数据库的旋律特征提取、哼唱特征提取和音乐旋律匹配算法。针对这三方面,本文做了以下工作:1.选择MIDI格式作为音乐文件格式,分析了解MIDI文件的结构,实现从MIDI音乐库中提取音乐的旋律信息。2.详细分析几种基音提取算法。为了保证系统的时间复杂度较低和算法精度较高,本文对哼唱语音信号用两层BP神经网络进行切分音符及清浊音区分,阐述平均幅度差函数法和自相关函数法的优缺点并进一步改进,得到更精确的基音周期,从而提取音高和音长,生成哼唱的旋律特征,为后续的匹配算法做好准备工作。3.分析几种传统的旋律匹配算法的优缺点。结合本系统对准确度及速度的要求,本文建立基于音高差隐马尔科夫模型加权音长比来匹配,最终得到最佳匹配音乐。最后本文针对基于哼唱的MIDI音乐检索系统进行实验验证,对其进行抗噪性分析并与其他论文进行对比,结果表明该系统的检索具有较高的准确性和实用性。