论文部分内容阅读
本文基于情感的虚拟乐器音色建模的研究是计算机音乐技术研究的重要范畴,其目的就是利用计算机构建一组特殊的数字虚拟乐器模型,方便“写”出表达情感的乐曲。目前乐音的产生主要是通过录制的方式,需要经过演奏者现场演奏、软件工程师后期处理等多道工序方能实现,这不但需要耗费大量的人力、物力及时间成本,还很难对这种方式产生的乐曲进行精确、细微的调节。但是如果通过音色模型,就可以很方便的在计算机中“写”出乐曲,能够对所“写”内容进行极为精确的控制,而且对其修改也极为方便、快捷,从而大大节省录制的资源和时间成本。音乐是一种情感表达的艺术,要通过乐音将作曲家所要表达的情感清晰地展现出来,往往不是一件容易的事情。而通过构建一组用于表达情感的音色模型,可大大降低表达情感的难度,从而更好的满足人们的情感表达需求。从不同的角度,可以将音乐中表现出来的情感划分为多个不同的种类。本文在参考了Thayer所提出的二维模型以及Juslin的分类理论后,将音乐中的主要情感分为了悲伤、欢快、愤怒、宁静安逸四大类。在分析已有的现实乐器的基础上,根据情感的特征与乐器音色的对应关系,找出了适合表达各种情感的一些乐器,分别作为主要采样研究对象和辅助研究对象,为基于情感的音色建模提供基础。由于乐器的发声是通过振动产生的,故而其发声的音色取决于振幅包络特性以及频谱特性。因此基于情感的音色模型构建也是基于这两个方面。分别建立振幅包络子模型、频谱特征子模型,然后合成为最终要建立的模型。模型建立以后,使用C#语言在.NET框架下构建了一个实验平台,对模型效果进行检验。在实验平台输入所建模型中的各个参数,将音乐数据写入内存中,然后保存为WAV音频文件,通过播放测试验证模型的准确性。该模型除了可减少乐音产生的一系列成本,还可提高其产生的效率,降低表达情感的难度。该研究对算法作曲和基于情感的音乐检索具有一定的理论指导意义和实用价值。