论文部分内容阅读
避免不稳定的学习,一个稳定的适应学习算法为分离时间的周期性的神经网络被建议。不同于动态坡度方法,例如整个时间和实时的 backpropagation 周期性的学习,周期性的神经网络的重量在建议学习算法以 Lyapunov 稳定性理论在网上被更新,学习稳定性因此被保证。与周期性的神经网络的激活功能的倒置,建议学习算法能容易为解决改变非线性的适应学习问题和过程能被完成的适应学习的快集中被实现。在模式识别的模拟实验证明仅仅 5 次重复为 15 的存储被需要