论文部分内容阅读
第三方研究机构OpenAI近期发布的研究显示,仅2012年以来,人们对于算力的需求增长六年就超过30万倍,平均每年增长10倍,远超摩尔定律的发展速度。
面对AI算力需求的爆发式增长,华为作为AI的后入局者,大胆提出要为业界提供“易获取、用得起、方便用”的算力。如今,距离AI战略提出一年,华为是否已经找到算力破局的入口?
这也是今年9月举行的2019华为全联接大会备受瞩目的重要原因。
17世纪后期,英国采矿业,特别是煤矿,已发展到相当的规模,单靠人力、畜力已难以满足排除矿井地下水的要求,现场又有丰富而廉价的煤作为燃料。现实的需要促使人们致力于“以火力排水”的探索。1769年英国人詹姆斯·瓦特制造了蒸汽机,引起了18世纪的第一次工业革命。
100年后,美国人发明和实现了电力的广泛使用,引领了19世纪的第二次工业革命。1946年,世界第一台二进制计算机的发明,人类在20世纪进入了第三次工业革命,信息技术的发展尤其是移动互联网的普及极大地改变了人类的生活。
进入21世纪,人类正在迎来以智能技术为代表的第四次工业革命,人工智能、物联网、5G以及生物工程等新技术融入到人类社会方方面面;驱动全球宏观趋势的变化,如社会可持续发展、经济增长的新动能、智慧城市、产业数字化转型、消费体验等。
人工智能是一系列新的通用目的技术(GPT),包括自然语言处理、图片识别、视频分析等。人工智能是信息化进程的新高度,信息技术带来了效率的提升,人工智能则带来生产成本的变化。行业+AI,人工智能将会改变每个行业、职业、组织、家庭和个人。
时代又仿佛回到了对采矿行业非生物动力需求极大的17世纪。进入21世纪,人工智能也对算力提出了强劲的增长需求,按照OpenAI最新的分析,从2012年到2018年,最大的人工智能训练运行中使用的算力增长了30多万倍,每3.5个月就会翻倍,远超摩尔定律的增长速度(每18个月芯片的性能翻一倍)。AI算力需求的急剧增长与传统CPU算力缓慢提升(每年10%)之间存在巨大矛盾,全球掀起造芯运动,加速算力成本降低和AI应用普及。
人工智能是时代潮流,潮流不可逆。但从2018年开始,全球包括中国在内,人工智能研究和产业的发展短暂地束了高速奔跑的节奏,进入一个相对平稳的周期。算力的稀缺和昂贵在一定程度上制約了当前的人工智能发展,易获取、用得起、方便用的算力,是AI产业发展的关键。
此时回顾过去的5年到10年间人工智能产业化的经验可以得知,技术快速商业化的一个重要原因来自芯片处理能力提升、云服务普及以及硬件价格下降的并行使得计算力大幅提升。
过去5年到10年间,算力投资最大的行业集中在互联网、政府、金融制造业和电信业。更多的行业受制于算力提升而难以使用上人工智能为代表的新技术。
只有解决了这个问题,才能推动人工智能产业进入下一个快速发展周期。
在中国,基于人口规模和经济的发展程度,在数据和行业应用都在全球处于领先地位。但AI算力资源却稀缺且昂贵,快速发展的应用和不断增多的数据量,需要越来越强劲的AI算力。但算力价格贵、使用难和资源难获取,已经形成了人工智能发展的三大瓶颈。
其一是价格贵:目前人工智能整个训练的过程,譬如训练人脸识别、交通综合治理、自动驾驶,模型的训练成本非常高昂。
其二是使用难:缺乏一个统一的开发框架,无法适配从训练到推理,从公有云到私有云、边缘、终端的多种应用场景,开发、调优、部署的工作量巨大。
其三是难获取:业界用于AI计算的GPU供货周期长、限量供应等,导致硬件资源不易获取。
为了解决这一问题,行业巨头目前都在着力开发大规模AI训练芯片,英伟达、Google和华为都推出了自己的AI训练芯片。英伟达Tesla V100 GPU最高提供125 TeraFLOPS深度学习性能,最大功耗为300瓦特。Google I/O 2018开发者大会上,Google推出了第三代TPU 3.0,最高提供90 TeraFLOPS深度学习性能。华为在2018年10月的全联接大会上发布了针对AI训练场景的华为昇腾910AI处理器。昇腾910 AI处理器,是当前计算密度最大的单芯片,适用于AI训练,可提供256 TeraFLOPS的算力,最大功耗为310瓦特。
华为数十年长期聚焦在ICT基础设施研发和建设领域,这也令华为可以深刻理解运营商和企业用户的使用场景,以此为基因,华为的打法是以“高起点”和“全栈全场景”入局AI领域,真正提供普惠的、强大的算力。
芯片领域,需要强调的是华为昇腾系列AI处理器,采用了面向张量计算的达芬奇3DCube架构,该架构面向AI的全新突破性设计,为昇腾AI处理器提供了超强的AI算力,使得芯片具有高算力、高能效、可扩展的优点。
基于统一的达芬奇架构,华为可以支持Ascend-Nano、Ascend-Tiny、Ascend-Lite、Ascend-Mini、Ascend-Max等芯片规格,具备从几十毫IP到几百瓦芯片的平滑扩展,天然覆盖了端、边、云的全场景部署的能力。
华为轮值董事长徐直军认为,“达芬奇架构可大可小,从Nano一直到Max、从穿戴设备一直到云,可以全场景覆盖;我们推出MindSpore的目的就是协同达芬奇架构来面向全场景的。也就是说,在端、边缘、云都可以训练和推理,还可以进行相互协同,这是现在其他计算框架所做不到的。”
AI训练的耗时跟模型的复杂度、数据集和硬件资源的配置是强相关的,在天文研究、自动驾驶训练、气象预测、石油勘探等大规模训练时,硬件资源显得尤其重要,人工智能的快速发展,得益于硬件和云计算技术的提升,更得益于各个行业数字化带来的大量的数据来训练模型。开发平台要求从原始数据到标注数据、训练数据、算法、模型、推理服务,实现千万级模型、数据集以及服务对象的全生命周期管理。
云端计算领域,无智能不成云,全栈发展走向纵深,AI已经成为云的基础业务,实现云端训练和推理。在云上部署,支持在线和批量的推理,满足大规模并发的复杂场景需求。
云、AI、IoT协调使能蓝海市场,在智慧家庭、物联网和车联网等场景,构建云+AI+IoT的综合解决方案,开新的人工智能市场。
华为的AI战略包括投入基础研究,在计算视觉、自然语言处理、决策推理等领域构筑数据高效(更少的数据需求)、能耗高效(更低的算力和能耗),安全可信、自动自治的机器学习基础能力;打造全栈方案,面向云、边缘和端等全场景的、独立的以及协同的、全栈解决方案,提供充裕的、经济的算力资源,简单易用、高效率、全流程的AI平台。
华为全球产业展望(GIV)报告显示,全球数据量将从2018年32.5ZB快速增长到2025年的180ZB。对于企业,AI算力需求每三个月增长一倍,AI应用率到2025年将达80%。
此时,华为在算力领域已取得突破,站在了时代风口之上。
面对AI算力需求的爆发式增长,华为作为AI的后入局者,大胆提出要为业界提供“易获取、用得起、方便用”的算力。如今,距离AI战略提出一年,华为是否已经找到算力破局的入口?
这也是今年9月举行的2019华为全联接大会备受瞩目的重要原因。
17世纪后期,英国采矿业,特别是煤矿,已发展到相当的规模,单靠人力、畜力已难以满足排除矿井地下水的要求,现场又有丰富而廉价的煤作为燃料。现实的需要促使人们致力于“以火力排水”的探索。1769年英国人詹姆斯·瓦特制造了蒸汽机,引起了18世纪的第一次工业革命。
100年后,美国人发明和实现了电力的广泛使用,引领了19世纪的第二次工业革命。1946年,世界第一台二进制计算机的发明,人类在20世纪进入了第三次工业革命,信息技术的发展尤其是移动互联网的普及极大地改变了人类的生活。
进入21世纪,人类正在迎来以智能技术为代表的第四次工业革命,人工智能、物联网、5G以及生物工程等新技术融入到人类社会方方面面;驱动全球宏观趋势的变化,如社会可持续发展、经济增长的新动能、智慧城市、产业数字化转型、消费体验等。
人工智能是一系列新的通用目的技术(GPT),包括自然语言处理、图片识别、视频分析等。人工智能是信息化进程的新高度,信息技术带来了效率的提升,人工智能则带来生产成本的变化。行业+AI,人工智能将会改变每个行业、职业、组织、家庭和个人。
解决了算力等问题,才能推动人工智能产业进入下一个快速发展周期
时代又仿佛回到了对采矿行业非生物动力需求极大的17世纪。进入21世纪,人工智能也对算力提出了强劲的增长需求,按照OpenAI最新的分析,从2012年到2018年,最大的人工智能训练运行中使用的算力增长了30多万倍,每3.5个月就会翻倍,远超摩尔定律的增长速度(每18个月芯片的性能翻一倍)。AI算力需求的急剧增长与传统CPU算力缓慢提升(每年10%)之间存在巨大矛盾,全球掀起造芯运动,加速算力成本降低和AI应用普及。
人工智能是时代潮流,潮流不可逆。但从2018年开始,全球包括中国在内,人工智能研究和产业的发展短暂地束了高速奔跑的节奏,进入一个相对平稳的周期。算力的稀缺和昂贵在一定程度上制約了当前的人工智能发展,易获取、用得起、方便用的算力,是AI产业发展的关键。
此时回顾过去的5年到10年间人工智能产业化的经验可以得知,技术快速商业化的一个重要原因来自芯片处理能力提升、云服务普及以及硬件价格下降的并行使得计算力大幅提升。
过去5年到10年间,算力投资最大的行业集中在互联网、政府、金融制造业和电信业。更多的行业受制于算力提升而难以使用上人工智能为代表的新技术。
只有解决了这个问题,才能推动人工智能产业进入下一个快速发展周期。
在中国,基于人口规模和经济的发展程度,在数据和行业应用都在全球处于领先地位。但AI算力资源却稀缺且昂贵,快速发展的应用和不断增多的数据量,需要越来越强劲的AI算力。但算力价格贵、使用难和资源难获取,已经形成了人工智能发展的三大瓶颈。
其一是价格贵:目前人工智能整个训练的过程,譬如训练人脸识别、交通综合治理、自动驾驶,模型的训练成本非常高昂。
其二是使用难:缺乏一个统一的开发框架,无法适配从训练到推理,从公有云到私有云、边缘、终端的多种应用场景,开发、调优、部署的工作量巨大。
其三是难获取:业界用于AI计算的GPU供货周期长、限量供应等,导致硬件资源不易获取。
为了解决这一问题,行业巨头目前都在着力开发大规模AI训练芯片,英伟达、Google和华为都推出了自己的AI训练芯片。英伟达Tesla V100 GPU最高提供125 TeraFLOPS深度学习性能,最大功耗为300瓦特。Google I/O 2018开发者大会上,Google推出了第三代TPU 3.0,最高提供90 TeraFLOPS深度学习性能。华为在2018年10月的全联接大会上发布了针对AI训练场景的华为昇腾910AI处理器。昇腾910 AI处理器,是当前计算密度最大的单芯片,适用于AI训练,可提供256 TeraFLOPS的算力,最大功耗为310瓦特。
业界主流AI训练芯片能力对比
华为数十年长期聚焦在ICT基础设施研发和建设领域,这也令华为可以深刻理解运营商和企业用户的使用场景,以此为基因,华为的打法是以“高起点”和“全栈全场景”入局AI领域,真正提供普惠的、强大的算力。
芯片领域,需要强调的是华为昇腾系列AI处理器,采用了面向张量计算的达芬奇3DCube架构,该架构面向AI的全新突破性设计,为昇腾AI处理器提供了超强的AI算力,使得芯片具有高算力、高能效、可扩展的优点。
基于统一的达芬奇架构,华为可以支持Ascend-Nano、Ascend-Tiny、Ascend-Lite、Ascend-Mini、Ascend-Max等芯片规格,具备从几十毫IP到几百瓦芯片的平滑扩展,天然覆盖了端、边、云的全场景部署的能力。
华为轮值董事长徐直军认为,“达芬奇架构可大可小,从Nano一直到Max、从穿戴设备一直到云,可以全场景覆盖;我们推出MindSpore的目的就是协同达芬奇架构来面向全场景的。也就是说,在端、边缘、云都可以训练和推理,还可以进行相互协同,这是现在其他计算框架所做不到的。”
AI训练的耗时跟模型的复杂度、数据集和硬件资源的配置是强相关的,在天文研究、自动驾驶训练、气象预测、石油勘探等大规模训练时,硬件资源显得尤其重要,人工智能的快速发展,得益于硬件和云计算技术的提升,更得益于各个行业数字化带来的大量的数据来训练模型。开发平台要求从原始数据到标注数据、训练数据、算法、模型、推理服务,实现千万级模型、数据集以及服务对象的全生命周期管理。
云端计算领域,无智能不成云,全栈发展走向纵深,AI已经成为云的基础业务,实现云端训练和推理。在云上部署,支持在线和批量的推理,满足大规模并发的复杂场景需求。
云、AI、IoT协调使能蓝海市场,在智慧家庭、物联网和车联网等场景,构建云+AI+IoT的综合解决方案,开新的人工智能市场。
华为的AI战略包括投入基础研究,在计算视觉、自然语言处理、决策推理等领域构筑数据高效(更少的数据需求)、能耗高效(更低的算力和能耗),安全可信、自动自治的机器学习基础能力;打造全栈方案,面向云、边缘和端等全场景的、独立的以及协同的、全栈解决方案,提供充裕的、经济的算力资源,简单易用、高效率、全流程的AI平台。
华为全球产业展望(GIV)报告显示,全球数据量将从2018年32.5ZB快速增长到2025年的180ZB。对于企业,AI算力需求每三个月增长一倍,AI应用率到2025年将达80%。
此时,华为在算力领域已取得突破,站在了时代风口之上。