论文部分内容阅读
支持向量机方法以统计学习理论为基础,具有简洁的数学形式、直观的几何解释和良好的推广能力,同时避免了局部最优解,一定程度上克服了“维数灾难”,而且便于使用,近年来受到广泛的重视。本论文的研究工作集中在支持向量机的训练及其在非线性语音模型中的应用这两方面。
在目前广泛使用的针对大量数据的训练算法——序贯最小优化算法中,选中的工作集对采用最近最少使用替换原则的缓存的无规则访问往往造成缓存效率的下降。本文试图解决这一问题,主要工作包括:
1)给出序贯最小优化算法的一种可行方向法的解释,简化了其中子二次规划问题的求解,而且可以方便地推导出任意工作集带来的目标函数的下降值。
2)对于序贯最小优化算法,提出两种改进算法——效益代价平衡的工作集选择算法和基于最小破坏程度的缓存替换算法,分别从不同角度出发,一定程度上提高了缓存的命中率,减少了核函数的计算次数,从而缩短了训练时间,特别适用于核函数比较复杂,输入空间维数较高,输入数据非稀疏的问题。
理论表明,语音的产生是一个极其复杂的非线性过程。因此,需要用语音的非线性模型代替传统的线性模型以进一步提高合成语音的质量。本文将支持向量机方法用于建立语音的自治的非线性动力学模型,其中的主要工作包括:
1)针对语音合成,提出基于支持向量机的自治的非线性动力学模型。首先将语音数据嵌入到相空间,然后利用支持向量机方法估计模型中的非线性映射。实验表明,系统可以很好地重建一些语音片断,而且保留原始语音中的音高和幅度的颤抖。但是对于某些语音片断,系统的输出与原始语音相去甚远。
2)针对基于支持向量机的非线性语音模型,指出一步局部李雅普诺夫指数与学习机器的容量的关系,一定程度上解释了系统不稳定的原因,并且给出一些常用核函数下一步局部李雅普诺夫指数的上界,最终得到一般核函数下该上界的直接计算方法。
3)进一步提出多带非线性语音模型,通过小波包分解,将语音信号分解为多个子带信号,对每个子带分别建立基于支持向量机的非线性动力学模型,提高了系统的稳定性。