论文部分内容阅读
深度神经网络近几年在图像处理、目标识别等应用中取得了巨大的成功,但深度神经网络过多的参数使其计算成本高且存储耗费大,很难部署在嵌入式设备等资源受限的硬件平台上。为解决该问题,采用矩阵奇异值分解(SVD)和网络剪枝两种方法压缩深度神经网络,并分析两种压缩方法在不同的硬件条件下的适用性。SVD方法通过引入神经元数更少的中间层降低权重规模和连接数;网络剪枝方法先剪去网络中权重小于某一阈值的连接,再重新训练稀疏连接的网络。在基本不损失精度的前提下,这两种方法对改进的深度神经网络PVANet分别压缩了5×