论文部分内容阅读
研究和开发人脸表情动画控制的方法和技术,特别是基于语音和语音语义的人脸表情动画的实现方法和技术,是近年来计算机仿真和计算机动画领域的研究热点之一,其技术和产品在影视动画制作、虚拟主持人、可视通信以及远程教学等领域有着广泛的应用前景。本文在分析和综合了国内外计算机人脸表情动画技术领域的研究成果的基础上,就基于语音语义控制人脸表情动画的实现方法进行了研究与实现。在3DS Max和 Maya动画制作软件平台上,通过语音识别技术获取输入语音的语义,开发了基于语音语义实现人脸表情动画控制的插件。
本文首先介绍了听觉机理和心理、语音信号处理方法、人脸表情动画的特点以及方法等。设计了基于HMM模型的语音识别系统,以获取语音的语义信息,如字符和情绪词语等,讨论和论述了语音信号预处理、特征提取、识别模型等相关关键环节的技术问题。然后,在3DS Max软件平台上,提出和建立了一种通过字符串参数交互控制人脸口型动画的实现方法。利用MAXScript语言的节点动画控制,开发和编写了插件,通过输入字符参数,实现了对人脸模型口型动画的控制调节。在Maya软件平台上,提出和建立了一种基于情绪词语控制人脸表情动画的方法,利用Maya C++API中的节点控制方法,建立了一套简单易行的自定义节点的插件开发流程,开发了通过输入的情绪词语实现人脸表情动画控制的插件。
仿真实验结果表明,本文所建立的利用语音识别后获取的语音语义在3DSMax、Maya平台上实现人脸表情动画控制的方法较好的解决了手动调整设置动画的问题,所建立的插件只需要对单一人脸模型进行操作,简单易行,避免了繁琐的重复劳动,且适用于同类型的不同人脸模型。这不仅大大提高了影视动画制作的效率,同时也为虚拟主持人和虚拟演员的语音交互控制提供了一种途径。