深度学习系统内存管理和通信优化关键技术研究

来源 :华中科技大学 | 被引量 : 0次 | 上传用户:qzspk
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
深度学习作为目前人工智能领域的前沿技术,在处理现实世界复杂问题时优势显著。与传统的人工神经网络相比,深度神经网络拥有更多的隐藏层及神经元,同时产生了大量不同种类的中间数据。这些数据对训练与推理任务的执行效果能够起到至关重要的作用,但与此同时,也在系统层面上带来庞大的计算体量、存储开销以及通信负载。目前深度学习系统优化领域存在不少问题,训练运行时效率较为低下,主要问题集中在两方面,其一是高性能加速硬件的内存容量有限,深度学习系统对内存资源的利用率较低,难以完成大规模迭代训练任务;其二是分布式加速硬件集群的互联带宽有限,集群节点间频繁的梯度通信成为性能瓶颈。解决上述多重资源受限的问题主要涉及到神经网络中特征映射、参数等中间数据的内存管理与稀疏通信优化技术等方面的研究。具体来说,针对深度学习系统优化的研究工作分别从以下三个角度开展。
  针对加速硬件存储资源不足以满足训练运行时内存需求的问题,考虑以神经网络模型层结构为中心的内存空间重用思想,提出一种基于空间复用的特征映射数据内存管理机制Layrub。首先对反向计算的执行序列进行细粒度的重排,然后针对卷积神经网络特征映射数据规模较大的特性,提出神经网络层敏感的内存复用策略,实现高内存利用率的特征映射数据组织方式。通过对数据在加速硬件与主存之间进行合理迁移与放置,使得训练运行时的内存消耗明显减少,能够对深度神经网络的形态设计和进一步研究提供系统级的支撑。实验表明,与原生未优化的深度学习框架Caffe相比,Layrub可以使系统内存使用率平均降低58.2%以上,最高可达98.9%,同时达到适中的时间代价,训练执行时间平均增加24.1%。实验结果还表明,Layrub明显优于一些具备内存优化能力的主流深度学习系统,并且可以执行极限规模的深度学习任务。
  针对分布式训练中高性能计算节点间梯度交换的通信瓶颈问题,提出了一种基于陈旧补偿的参数梯度稀疏通信优化机制GradSA。首先提出基于神经网络层结构的梯度稀疏化思想,分析并结合参数梯度数据的特点,减少梯度传输规模,显著降低跨节点通信开销;其次,利用近似梯度进行历史梯度的积累,以此来加快收敛速度。随后,针对历史梯度累积后的稀疏梯度进行高效编码。实验结果表明,即使在通信网络带宽较低的极端环境下,所提出的梯度优化算法也能够获得良好的吞吐量和加速性能。GradSA能够在保证迭代计算性能不下降的前提下,将参数梯度通信量减少514倍。通过与8-bit量化、TernGrad和DGC等主流方法进行比较,进一步证明了GradSA在各种神经网络模型和数据集上的优势。
  针对分布式训练中计算、内存、通信带宽等资源消耗巨大、协同优化困难的问题,考虑系统内存与通信资源协同优化的思想,提出一种内存高效的分布式稀疏通信机制LaySA。首先对内存管理策略进行数据对象的增广与重新定义,解决由稀疏通信引起的内存膨胀问题,其次提出镜像参数更新机制,解决参数梯度数据的内存优化与稀疏通信优化难以共存的矛盾,填补分布式深度学习系统在多重资源优化方面存在的空缺,最终实现内存与通信两类优化思路的深度融合、协同执行。实验结果表明,经过系统资源协同优化后,计算节点的内存压力得到有效缓解,在资源利用率及分布式训练效率方面取得了良好效果。与仅采用Layrub和GradSA的训练系统相比,LaySA最高能够节约80.5%的系统内存使用量,神经网络模型在单GPU上整体训练时间缩短了12.25%左右,除此之外,LaySA能够使用更大批量数据进行分布式训练,系统吞吐量整体提升150%以上,明显优于单独使用内存或通信优化机制的训练系统。
  综上所述,针对深度学习系统优化这个研究命题,从体系结构层面上考虑使用更合理的中间数据存储管理机制,从分析数据结构、系统调优等思路进行,对深度神经网络的训练执行效率进行提升。与此同时,从系统运行时层面上优化增强中间数据(其中包括特征映射数据及参数梯度),从分析中间数据特性、数据体量的思路出发,对深度神经网络的训练质量进行提升。通过上述研究,能够在硬件环境的计算、存储、带宽等资源有限的情况下,尽可能的挖掘大规模深度学习的效率和性能。
其他文献
随着计算机网络的发展以及智能手机等多媒体获取设备的普及,多媒体数据呈爆炸式增长,其中图像和视频数据已经成为大数据时代的主要数据类型。如何在海量的图像中以较小的时空开销准确找到用户感兴趣的图像成为多媒体领域的研究热点。针对图像的底层特征与高层语义间的“语义鸿沟”问题,以及全局图像表示缺乏几何不变性和空间占用较大的问题,利用深度学习、特征编码、哈希学习等方面的知识,论文系统探讨了图像检索系统中的描述符
学位
信息技术的发展促使数据规模急剧增长,进一步推动了云计算技术的发展与成熟,使得越来越多的企业和个人将业务或应用迁移到云计算平台上。在云计算平台中,云服务提供商往往采用共享服务架构,并通过虚拟化技术向用户交付服务。比如将租户应用部署在虚拟机内,而虚拟机共享计算、存储和网络等物理资源。共享服务架构能够提高资源利用率并降低管理成本,但会引入资源竞争,使得租户间的性能相互干扰。云存储系统作为存储服务的载体,
磁盘是数据存储最常用的设备之一,磁盘故障预测是保障数据可靠性的重要技术手段。磁盘故障预测方法一般可以分为两大类:设备级故障(即整盘故障)预测和扇区级故障(即局部磁盘故障)预测。学术界采用一些传统机器学习方法,例如支持向量机、逻辑斯特回归、决策树和随机森林等,预测磁盘故障并取得了一些成果。但是,这些研究仍然存在以下三个方面不足:(1)面对实际数据中心中单一型号数量较少(小样本)磁盘的故障预测问题,预
学位
固态盘(Solid State Drive)因具有高内部并行性、低随机访问延迟、低能耗以及小尺寸等优势,作为主流的存储设备被广泛用于个人电脑和数据中心。近年来,随着5G和大数据技术发展,对存储容量、性能和可靠性提出了更高需求。得益于半导体制程工艺技术、单元多比特技术以及三维堆叠技术的发展,闪存存储密度大幅提升。然而,存储密度的增长是以牺牲可靠性为代价,不可靠的存储介质会引起数据存储可靠性维护开销大
学位
键值存储是支撑数据中心和众多数据密集型应用的关键技术,广泛应用于网页检索、电子商务、云存储、社交网络等领域。大数据时代下,键值存储的发展始终围绕着三大需求,即更高的访问效率、更大的存储容量和稳定可预测的性能。在近些年发展的新型存储器件中,瓦记录磁盘显著提高了磁盘面密度,具有低成本、高存储容量的优势;非易失性内存则能够明显提升访问效率,兼具传统硬盘的持久性和接近DRAM的存取速率。因此,新型存储器件
为从大规模图中挖掘出有价值的信息和知识,分布式图计算系统首先通过图分割方法,将图中的顶点和边分配到各计算节点上;然后,执行特定的图处理流程,迭代计算图中的顶点数值,直至图算法收敛。因此,图分割方法和图处理流程在很大程度上决定了分布式图计算系统的整体性能。传统的分布式图计算系统通常基于同构计算集群,并采用静态的、通用的图分析模式。但随着图计算应用在广度和深度上的不断扩展,新型的分布式图计算系统需要能
在互联网时代,大规模近似最近邻检索方法在海量多媒体数据检索,人脸识别等领域具有广泛应用。如何快速、准确、高效地对大规模(十亿级别)多媒体数据进行近似最近邻检索成为当前检索技术方向研究的热点和难点。  目前主流的大规模近似最近邻检索方法主要采用基于量化方法的索引结构和压缩编码方法来提高检索准确率和速度,并利用图形处理器(GPU)强大的并行计算能力对检索方法进行加速。由于GPU的内存空间有限与不同于C
移动边缘计算(Mobile Edge Computing, MEC)将大量的计算和频谱资源转移到接近最终用户的地方,减少了服务时延。面向MEC的延迟敏感的人工智能(Artificial Intelligence, AI)应用,如情感识别,人脸识别等,通常受到能量消耗和计算资源的限制,不能满足QoS要求。计算卸载与迁移作为MEC关键技术之一,研究者们提出各种方案以解决MEC中的计算与通信问题。  然
图像分类与目标检测是计算机视觉领域中众多人工智能应用中的关键技术,是重要的研究方向。其中图像分类是判别图像的类别问题,目标检测是实现对图像中的多个目标的定位和分类,即图像分类是目标检测的基础。近些年,研究人员利用深度学习方法大大提高了图像分类与目标检测的性能,使用卷积神经网络进行特征学习已经成为图像处理的主要方法。但是,由于图像中场景变化,目标遮挡,目标模糊,分辨率过低等原因,使得图像分类与目标检
学位
随着云存储规模的不断增大,云存储系统面临数据丢失的风险也不断提升,因此云存储系统中数据可靠性问题是当前学术界和工业界关注的一大热点。为了解决该问题,云存储系统通常使用具有低存储成本的纠删码技术。区别于一般存储系统,云存储系统需要满足海量用户复杂多变的存储需求,以及提供7×24高可用的存储服务,而这给云存储系统中纠删码技术带来两大关键性科学问题,分别是纠删码的存储扩展性能较低与频繁变化的存储扩展需求