论文部分内容阅读
卷积神经网络作为深度学习中神经网络的一种,在图像处理领域有着十分优秀的性能表现,其优点是可以直接作用于图像像素之上,对像素进行卷积操作,从中提取图像的特征信息。另一方面卷积神经网络的权值共享与池化层能大量的减少网络的参数数量,使得网络训练速度更快,效率更高。对于深度学习来说,数据量的多少往往决定了模型的性能高低,否则充分训练后模型往往会出现严重的过拟合现象。基于此研究者们提出了迁移学习的概念,但迁移学习需要使用被迁移模型的网络结构,而不同的网络结构其表征能力并不相同,况且对于不同的问题而言,其最优的模型结构也不相同,所以并不能一味的迁移已经被训练好的模型参数。本文的主要研究内容在于如何使算法模型在数据量不足的情况下兼顾时间性能的同时获得很好的分类精度,基于此本文做了如下尝试:(1)对经典的Vgg-9模型结构进行优化,将原始的模型结构中卷积核的数量与全连接层中的节点就行了部分的删除,并将最后一个最大池化层改为全局最大池化层,由此设计出了本文的卷积神经网络模型结构,实验结果证明经过优化后的模型结构无论是时间性能还是预测精度都高于原始的模型结构。(2)在卷积神经网络中加入了降噪自编码器模块,利用降噪自编码器对数据可能存在的噪声问题进行有效预防,实验证明加入降噪自编码器后模型的抵抗图像噪声的能力得到了进一步的提高,有效缓解了数据噪声对模型性能的影响。(3)将cifar-100作为模型参数的初始化数据集,利用其对模型进行初始化训练,除此之外还对实验数据进行了数据增强操作,扩大的实验的有效数据量,实验结果证明经过参数初始化与数据增强后的模型无论是收敛速度还是预测精度都有一定的提升。除此之外,本文还在模型中应用了很多成熟的优化措施,在实验中也取得了比较好的实验效果。最终,本文模型的准确率达到了90.38%,单个样本预测时间为0.6ms。基本满足了图像分类算法有关准确率与时间性能的要求。