论文部分内容阅读
当我们忘记了歌曲的名称,演唱者等信息,要从海量的音乐信息中检索我们需要的歌曲时,传统的基于文本的音乐检索方式已经不能满足需求,随着音频指纹技术的发展,基于哼唱的音乐检索方式为用户带来了简单、方便、快捷的音乐检索体验。人们只需记起一段旋律或一个片段,就能通过基于哼唱的音乐检索方式检索到我们需要的歌曲。基于哼唱的音乐检索本质上是一种基于内容的音乐检索。人们一般通过旋律特征来记忆歌曲,所以利用哼唱旋律来检索歌曲是一种很自然的方式,通过提取音乐中的音高和音长等特征来表达音乐的旋律,并按照相似度量的方法进行旋律匹配。其中的难点是基音提取、音符切分和旋律的检索匹配,针对这些方面,本文做了如下工作:(1)介绍了哼唱检索的研究现状、发展状况及基本的乐理知识,对声音三要素进行了说明,并阐述了表示级和语义级特征,为特征提取奠定了基础。(2)本文提出了一种基于LPC与AMDF的高精度基音检测算法,减少了基音检测中的半频错误,在高信噪比下具有良好的准确性和鲁棒性。(3)为子得到精确的持续时长,本文提出了一种联合音高与能量的音符切分算法,获得了88.75%的分割准确度。(4)旋律匹配提出了一种联合EMD和DTW的线性伸缩模糊匹配算法,首先以EMD算法得到候选歌曲序列,然后再以候选歌曲序列进行DTW计算返回用户需要的结果,该算法能容忍用户哼唱的音符增加、音符删除和音符替换错误,在精度和速度方面取得了良好的平衡。(5)利用上述算法构建了一个哼唱检索系统,实验结果及分析表明了该系统的有效性和鲁棒性。