论文部分内容阅读
神经网络是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型,在优化问题、模式识别和联想记忆等许多方面都有成功的应用。神经网络的动力学行为是其应用和设计的基础,不同的应用依赖于神经网络的不同的动力学行为。有些应用中,比如优化问题,往往需要神经网络具有唯一的全局稳定的平衡点,即神经网络具有单稳定性。而在有些应用中,比如联想记忆,可能需要神经网络同时具有多个稳定的平衡点,此时神经网络应具有多稳定性,因此神经网络多稳定性分析逐渐成为近年来的研究热点。 激励函数的类型是决定神经网络稳定平衡点个数的关键因素。神经网络多稳定性前期的工作主要假设神经网络是单调递增的。与基于单调激励函数的神经网络相比,基于非单调激励函数的神经网络可以显著提高神经网络的训练速度,从而大大降低神经网络的训练时间。因此,相关研究者对非单调激励函数的神经网络的多稳定性进行了研究,但是选取的激励函数类型比较特殊,即是分段线性的。事实上,也有一些常见的激励函数如Mexican-hat函数、Gaussian函数、正弦函数等,这些函数即是非单调的,也在任意开区间内是非线性的。鉴于此,本文将前人的工作进行了推广,主要研究了基于非单调激励函数的递归神经网络的多稳定性。主要内容如下: (1)研究了基于非单调激励函数和混合时滞的递归神经网络的多稳定性。根据激励函数的性质,利用状态空间剖分法和不动点原理得到了n维递归神经网络具有3n个平衡点的充分条件,然后利用比较的方法得到了2n个指数稳定的平衡点的充分判据。最后对稳定的平衡点的吸引域进行了估计。 (2)分析了基于非单调激励函数的一类时滞Cohen-Grossberg神经网络的多稳定性。得到了n维时滞递归神经网络具有(2K+1)n(K≥0)个平衡点以及(K+1)n个指数稳定的平衡点的充分判据,并对稳定的平衡点的吸引域进行了估计。 (3)考虑了基于Mexican-hat函数的时滞递归神经网络的多稳定性。根据Mexican-hat函数的性质,得到了n维时滞递归神经网络具有3k15k2(0≤(k1+k2)≤n)个平衡点以及2k13k2个指数稳定的平衡点的充分判据,并对稳定的平衡点的吸引域进行了估计。 (4)研究了基于Gaussian函数的时滞递归神经网络的多稳定性和完全稳定性。根据Gaussian函数的性质,利用状态空间剖分法和不动点原理得到了n维时滞递归神经网络具有3k(k≤n)个平衡点的充分条件,利用上下界函数迭代的方法得到神经网络的完全稳定性,并通过比较的方法得到了2k个指数稳定和3k-2k个不稳定的平衡点的充分判据。 最后对本文的工作进行了全面的总结,并对今后的研究方向进行了展望。