论文部分内容阅读
本文从获取好的神经网络泛化能力出发,首先提出了将Hebbian学习与增加问题复杂性统一起来的思想,并通过在总的误差函数中增加一限制函数来实现Hebbian学习.基于此,提出了一种将误差驱动的任务学习与Hebbian规则的模型学习相结合的E-H方法.然后,根据模型学习应同时考虑减小网络复杂性和增加问题复杂性的思想,又提出了一种将误差驱动的学习与Hebbian规则、简单的权退化法结合起来,共同来提高神经网络的泛化能力的E-H-W方法.最后通过大量实例仿真将它们与纯误差驱动的方法、权退化法、其它文献中的相关方法