论文部分内容阅读
针对传统LeNet卷积神经网络存在的学习效率低、收敛速度慢、训练时间长的问题,提出一种LeNet网络改进方法,在每层卷积之后进行批量归一化,再进行Dropout随机休眠神经元并使用全局池化层替代全连接层,通过以上方法减少运算参数,缓解梯度消失和过拟合问题,提升运行效率.通过在MNIST等3个数据集上实验表明,该改进方法相比传统的LeNet网络,可以更有效提取图像特征,效缩短训练时间,提升网络收敛速度.