论文部分内容阅读
随着信息时代的到来,人工智能浪潮迅速兴起。作为人工智能基础的神经网络,在近年来得到飞速发展。虽然神经网络性能已经达到一个很高的水准,但是其高资源、高耗能的现状依然存在。另一方面,边缘计算概念的兴起,边缘设备数量也正呈指数级的增长,然而边缘设备的特点是低资源、低能耗。这与神经网络目前的现状相违背。因此对已有神经网络模型进行压缩研究,然后将其部署在边缘设备上意义重大。本文研究核心是深度卷积神经网络模型压缩,并且最终部署在资源有限的边缘设备上,研究主要内容:1.深度卷积神经网络压缩算法(剪枝方法)的研究剪枝方法是目前深度卷积神经网络模型压缩的主流方法之一,但是目前如何对信息分布不均的各层设置不同剪枝率还是一个开放性问题。本文提出层恢复敏感度分析法,能够更加准确的探究各层对网络性能的贡献度。根据贡献度的差异,提出分级剪枝率法,将贡献度大小分级,更加准确的设置各层剪枝率。实验表明分级剪枝率法对比目前剪枝效果最好的FPGM剪枝法,在保证基本相同剪枝率条件下,剪枝模型的分类准确率能稳定提升;或者在保证分类准确率基本相同条件下,模型能够裁剪更高的比例。2.深度卷积神经网络模型综合压缩研究目前深度卷积神经网络模型压缩的方法有很多种,本文通过对现有压缩技术的分析研究,选择VGG-16深度卷积神经网络模型,运用多种方法对网络进行综合压缩。最终压缩成果:在保证深度卷积神经网络模型性能损失不超过3%的前提下,压缩模型计算量压缩超过45%,参数量压缩到10%以下,模型存储大小降到10%以下,且在寒武纪智能物端芯片上的能耗比达到1T(FLOPs/w)。3.综合压缩模型在边缘端快速部署的研究异构边缘计算已经成为一种新的计算范式,其目标是将计算从云端移动到边缘端。边缘计算任务的快速部署对于全面实施边缘计算至关重要。在本文中,设计一个可拓展的边缘端快速任务部署方法,采用跨平台的容器技术封装异构计算单元的软件环境和运行时所需的相关依赖,来实现边缘端实验任务的快速部署。大量实验表明,任务部署平台几乎不会带来额外的时间消耗,也不会占用额外的计算资源。