论文部分内容阅读
BP算法通过迭代地处理一组训练样本,将每个样本的实际输出与期望输出比较,不断调整神经网络的权值和阈值,使网络的均方差最小。BP算法的有效性在某种程度上依赖于学习率的选择,由于标准BP算法中学习率固定不变,因此其收敛速度慢,易陷入局部极小值。针对此问题,通过分析BP神经网络的误差曲面可知,在误差曲面平坦区域需要有较大的学习率,在误差变化剧烈的区域需要有较小的学习率,从而加快算法的收敛速度,避免陷入局部极小值。实验结果表明,自适应学习率BP算法的收敛速度明显快于固定学习率的标准BP算法。