论文部分内容阅读
发展云计算首先要发展数据中心。但是当前的数据中心建造、部署运维模式显然难以迎接云计算时代的挑战。数据中心“先天不足”。
按照原有的通信机房的规格规划和建设,从选址、规划到设计实施、部署,建设周期一般长达12~18个月,而且前期投资大,流程复杂。某互联网公司透露,其大型数据中心的土建成本就高达20000~25000元/m2。建成之后的IT设备部署也较为原始,基本还是项目部署制,“一项目一部署”和“一机一应用”,部署缓慢,密度低。此外,数据中心目前的维护成本,已经超过了购买设备的成本,一台1U服务器的运维成本高达采购成本的两倍。
因此,浪潮提出了云计算时代的数据中心新理念——CDC(Cloud Data Center),就是将数据中心以标准化、模块化的设计方式实现产品化,可以随买随用,即插即用。以集装箱为单位,工厂预装,批量制造,打破传统机房画地为牢的限制。浪潮云海集装箱数据中心Smartcloud是将供电、制冷、散热、IT等所有模块集成到一个标准集装箱内,分为20英尺分体式和40英尺整体式两种标准形态。其中,20英尺产品占地面积15m2,最大重量20吨,可容纳7680个计算核心,能够提供百万亿次计算能力,整合47个云海集装箱形成的数据中心可达到世界性能超高的“天河一号”的峰值能力;最大可提供6PB存储空间,能够容纳300万部高清电影或者50万人口的医疗视频资料,2个Smartcloud集装箱数据中心可存储美国国会图书馆藏书。
浪潮在2010年发布云海战略,提出要完成在云计算基础架构领域的产品技术布局,以大型IT设备为核心,以高密度、高性价比的IT设备为外围,在数据中心操作系统的统一整合下成为一个资源池,这就是基础架构的逻辑组成。云海集装箱数据中心,是浪潮对云计算基础架构理解的集中体现。浪潮推出该产品的同时也提出了对云计算数据中心建造运行模式的全面理解——CDC。
产品化的IDC
平台化、模块化、标准化是浪潮云海集装箱数据中心的突出特点。集装箱内部的组件根据应用的密集型分布种类可按需灵活配置,既可以作为数据中心的IT、制冷、供电等功能模块,也可以作为完整的数据中心。
浪潮云海集装箱数据中心可根据业务规模的不同,提供不同的服务。
首先是面向中小规模云计算平台的一体式Smartcloud。它适用于一般需求量的业务或是用在业务部署初期,实现部署的快速和一体化。此时,只预留了外部的上行网络连接,如果是内部云的CDC应用,则上行网络都不需要连接,直接可以作为独立的计算环境。
其次是面向大规模云计算平台的20英尺分体式Smartcloud 。将一体式集装箱内的共性功能单元进行合并和集约化处理,按照功能的不同分为计算和存储单元集装箱、动力和制冷功能集装箱等功能单元,通过各单元之间的相互组合,实现大规模数据中心的部署。
抗震防冷热 部署运输无障碍
云海集装箱数据中心的底板和支撑框架被加固,可承载重量达到30吨,同时可以通过调节,使集装箱内的设备重量均衡分布,减少设备在集装箱内因重量分布不均而对集装箱底板和整个框架承重产生的不良影响。此外,集装箱内部的单元也进行了加固,并加入了防震等设计,对设备均进行了底部和顶部的双重弹性固定,减少了运输和使用过程中外部扰动对工作的影响,可以抗7级以上的地震。因此,云海集装箱数据中心不仅可以实现陆运、水运和空运的无障碍运输,满足吊装、运输过程中的实际需求,而且极大增强了数据中心对于地震等突发物理冲击的抵抗能力。
集装箱内外部的水路口径、法兰盘等对外接口采用业界的标准设计,不仅保证浪潮云海集装箱数据中心之间简单互联,通过叠加快速扩大数据中心规模,而且可以轻松兼容其他厂商产品,不会产生技术捆绑现象。
云海集装箱数据中心不仅采用防震等措施,也采用航天领域的隔热保温技术。该产品采用高制冷性能的水冷机组,制冷单元内的虹吸管长度长,散热交换面积大,能够储存充足的循环水量,对外部环境依赖较小。此外,浪潮专门设计了供暖方案,以使产品可应用在寒带和亚寒带等低温环境中。
绿色智能的云海Smartcloud
由于传统数据中心一般是按照原有的通信机房的规格进行规划和建设的,普遍存在着散热设计粗放、散热能力和效果不均匀、能耗高等问题,整体数据中心的PUE一般都在2.0以上。而Smartcloud浪潮云海集装箱数据中心的PUE值仅为1.22。
此外,该数据中心还集成了绿色计算模块Smartrack。
当前,IDC数据中心内的IT设备均在内部有专享的AC-DC开关电源,在电源额度功率不大时,很难实现转换效率的提升,因此传统服务器的单体电源的转换效率存在瓶颈。同时,由于普通服务器内部也使用了专享的散热组件,散热功耗有时会占到20%以上,成为继处理器、电源模块之后的又一个能耗大户。
浪潮专门为云海集装箱数据中心研制了高密度机架集成服务器Smartrack。Smartrack支持高密度、半高密度、标准密度三类型节点,集中供电、集中散热、集中管理,提高了整体能源链路的利用效率。一方面,服务器节点内部无电源,采用集中供电方式,电源转换效率从当前的不足80%提高到93%以上;另一方面,服务器节点内部无风扇,采用集中风扇强散热的方式,使得散热功耗从15%~37%(视部署的服务器形态不同有所不同,高度越小的服务器散热功耗会越大)降低到不足12%。
而且,Smartrack节省了服务器内部的电源、风扇等辅助部件所占用的空间,可以部署更多的服务器节点,部署密度相比传统产品可以提高2~3倍。Smartrack可以作為云海集装箱数据中心的计算模组,完全兼容当前数据中心部署环境。传统数据中心可以通过部署该产品解决管理、能耗、密度等各类实际问题,是现有IDC向CDC转型的可行之路。
不仅如此,浪潮为Smartcloud专门设计了均衡冷却系统Balance cooling。整个集装箱通过内部的冷热风道隔离,实现服务器节点的热量转换,仅此一项就能够大幅提高热交换效率,降低散热功率。而且,水冷管线和IT设备完全物理隔离,设计在集装箱底部,保证水流管路的可靠性。
据统计,传统IDC数据中心采用的是地板送冷风的设计。由于受冷风出口处风速局限性、冷风下沉等因素影响,冷风到达机柜顶部时明显风量不足,因此传统机房内机柜上部1/3处的设备由于散热不良造成的停机、重启、部件故障等比例明显高于下部的设备。因此,当前数据中心经常将机柜顶部空间闲置,这影响了设备的部署密度。而Smartcloud浪潮云海集装箱数据中心采用水平循环的散热通路,确保计算单元均匀冷却,减少局部热点死角。
多维管理提高生命周期效率
云海Smartcloud以软硬一体化的整合性管理系统,通过设备级、rack级、数据中心三级管理的整合,将数据中心统一视为整体提供服务的单元。其管理模块能够同时管理5000台设备,形成资源池,实现了应用与物理平台的逻辑隔离,自动为应用配置资源,阻断硬件故障对业务的影响。
管理系统还可以将供电、制冷、IT设备功率进行自动化联动管理,能够根据数据中心整体负载情况,实时调整运行服务器的数量、功率水平,以及相应的制冷和散热功率。同时,管理系统具有资源利用情况统计功能,能统计应用、资源消耗、电力消耗等各类情况,从而核算出每一个资源单位、每一项操作的成本,实现数据中心的运维成本精确控制。
浪潮云海集装箱数据中心提倡的模块化建设部署,提高了建设部署速度,降低了前期投入,而后期的智能化管理极大地简化了运维成本和难度,从建造管理的全生命周期全面压缩成本,提高业务保障弹性。
按照原有的通信机房的规格规划和建设,从选址、规划到设计实施、部署,建设周期一般长达12~18个月,而且前期投资大,流程复杂。某互联网公司透露,其大型数据中心的土建成本就高达20000~25000元/m2。建成之后的IT设备部署也较为原始,基本还是项目部署制,“一项目一部署”和“一机一应用”,部署缓慢,密度低。此外,数据中心目前的维护成本,已经超过了购买设备的成本,一台1U服务器的运维成本高达采购成本的两倍。
因此,浪潮提出了云计算时代的数据中心新理念——CDC(Cloud Data Center),就是将数据中心以标准化、模块化的设计方式实现产品化,可以随买随用,即插即用。以集装箱为单位,工厂预装,批量制造,打破传统机房画地为牢的限制。浪潮云海集装箱数据中心Smartcloud是将供电、制冷、散热、IT等所有模块集成到一个标准集装箱内,分为20英尺分体式和40英尺整体式两种标准形态。其中,20英尺产品占地面积15m2,最大重量20吨,可容纳7680个计算核心,能够提供百万亿次计算能力,整合47个云海集装箱形成的数据中心可达到世界性能超高的“天河一号”的峰值能力;最大可提供6PB存储空间,能够容纳300万部高清电影或者50万人口的医疗视频资料,2个Smartcloud集装箱数据中心可存储美国国会图书馆藏书。
浪潮在2010年发布云海战略,提出要完成在云计算基础架构领域的产品技术布局,以大型IT设备为核心,以高密度、高性价比的IT设备为外围,在数据中心操作系统的统一整合下成为一个资源池,这就是基础架构的逻辑组成。云海集装箱数据中心,是浪潮对云计算基础架构理解的集中体现。浪潮推出该产品的同时也提出了对云计算数据中心建造运行模式的全面理解——CDC。
产品化的IDC
平台化、模块化、标准化是浪潮云海集装箱数据中心的突出特点。集装箱内部的组件根据应用的密集型分布种类可按需灵活配置,既可以作为数据中心的IT、制冷、供电等功能模块,也可以作为完整的数据中心。
浪潮云海集装箱数据中心可根据业务规模的不同,提供不同的服务。
首先是面向中小规模云计算平台的一体式Smartcloud。它适用于一般需求量的业务或是用在业务部署初期,实现部署的快速和一体化。此时,只预留了外部的上行网络连接,如果是内部云的CDC应用,则上行网络都不需要连接,直接可以作为独立的计算环境。
其次是面向大规模云计算平台的20英尺分体式Smartcloud 。将一体式集装箱内的共性功能单元进行合并和集约化处理,按照功能的不同分为计算和存储单元集装箱、动力和制冷功能集装箱等功能单元,通过各单元之间的相互组合,实现大规模数据中心的部署。
抗震防冷热 部署运输无障碍
云海集装箱数据中心的底板和支撑框架被加固,可承载重量达到30吨,同时可以通过调节,使集装箱内的设备重量均衡分布,减少设备在集装箱内因重量分布不均而对集装箱底板和整个框架承重产生的不良影响。此外,集装箱内部的单元也进行了加固,并加入了防震等设计,对设备均进行了底部和顶部的双重弹性固定,减少了运输和使用过程中外部扰动对工作的影响,可以抗7级以上的地震。因此,云海集装箱数据中心不仅可以实现陆运、水运和空运的无障碍运输,满足吊装、运输过程中的实际需求,而且极大增强了数据中心对于地震等突发物理冲击的抵抗能力。
集装箱内外部的水路口径、法兰盘等对外接口采用业界的标准设计,不仅保证浪潮云海集装箱数据中心之间简单互联,通过叠加快速扩大数据中心规模,而且可以轻松兼容其他厂商产品,不会产生技术捆绑现象。
云海集装箱数据中心不仅采用防震等措施,也采用航天领域的隔热保温技术。该产品采用高制冷性能的水冷机组,制冷单元内的虹吸管长度长,散热交换面积大,能够储存充足的循环水量,对外部环境依赖较小。此外,浪潮专门设计了供暖方案,以使产品可应用在寒带和亚寒带等低温环境中。
绿色智能的云海Smartcloud
由于传统数据中心一般是按照原有的通信机房的规格进行规划和建设的,普遍存在着散热设计粗放、散热能力和效果不均匀、能耗高等问题,整体数据中心的PUE一般都在2.0以上。而Smartcloud浪潮云海集装箱数据中心的PUE值仅为1.22。
此外,该数据中心还集成了绿色计算模块Smartrack。
当前,IDC数据中心内的IT设备均在内部有专享的AC-DC开关电源,在电源额度功率不大时,很难实现转换效率的提升,因此传统服务器的单体电源的转换效率存在瓶颈。同时,由于普通服务器内部也使用了专享的散热组件,散热功耗有时会占到20%以上,成为继处理器、电源模块之后的又一个能耗大户。
浪潮专门为云海集装箱数据中心研制了高密度机架集成服务器Smartrack。Smartrack支持高密度、半高密度、标准密度三类型节点,集中供电、集中散热、集中管理,提高了整体能源链路的利用效率。一方面,服务器节点内部无电源,采用集中供电方式,电源转换效率从当前的不足80%提高到93%以上;另一方面,服务器节点内部无风扇,采用集中风扇强散热的方式,使得散热功耗从15%~37%(视部署的服务器形态不同有所不同,高度越小的服务器散热功耗会越大)降低到不足12%。
而且,Smartrack节省了服务器内部的电源、风扇等辅助部件所占用的空间,可以部署更多的服务器节点,部署密度相比传统产品可以提高2~3倍。Smartrack可以作為云海集装箱数据中心的计算模组,完全兼容当前数据中心部署环境。传统数据中心可以通过部署该产品解决管理、能耗、密度等各类实际问题,是现有IDC向CDC转型的可行之路。
不仅如此,浪潮为Smartcloud专门设计了均衡冷却系统Balance cooling。整个集装箱通过内部的冷热风道隔离,实现服务器节点的热量转换,仅此一项就能够大幅提高热交换效率,降低散热功率。而且,水冷管线和IT设备完全物理隔离,设计在集装箱底部,保证水流管路的可靠性。
据统计,传统IDC数据中心采用的是地板送冷风的设计。由于受冷风出口处风速局限性、冷风下沉等因素影响,冷风到达机柜顶部时明显风量不足,因此传统机房内机柜上部1/3处的设备由于散热不良造成的停机、重启、部件故障等比例明显高于下部的设备。因此,当前数据中心经常将机柜顶部空间闲置,这影响了设备的部署密度。而Smartcloud浪潮云海集装箱数据中心采用水平循环的散热通路,确保计算单元均匀冷却,减少局部热点死角。
多维管理提高生命周期效率
云海Smartcloud以软硬一体化的整合性管理系统,通过设备级、rack级、数据中心三级管理的整合,将数据中心统一视为整体提供服务的单元。其管理模块能够同时管理5000台设备,形成资源池,实现了应用与物理平台的逻辑隔离,自动为应用配置资源,阻断硬件故障对业务的影响。
管理系统还可以将供电、制冷、IT设备功率进行自动化联动管理,能够根据数据中心整体负载情况,实时调整运行服务器的数量、功率水平,以及相应的制冷和散热功率。同时,管理系统具有资源利用情况统计功能,能统计应用、资源消耗、电力消耗等各类情况,从而核算出每一个资源单位、每一项操作的成本,实现数据中心的运维成本精确控制。
浪潮云海集装箱数据中心提倡的模块化建设部署,提高了建设部署速度,降低了前期投入,而后期的智能化管理极大地简化了运维成本和难度,从建造管理的全生命周期全面压缩成本,提高业务保障弹性。