论文部分内容阅读
在企业级固态硬盘领域中,除了本栏目前一篇文章中进行的关于MLC与SLC的讨论外,另一场激烈的争论正在进行当中,那就是固态硬盘更适合存储阵列还是服务器的直接连接存储。
固态硬盘(SSD)让企业界非常兴奋,其主要原因在于其速度快。虽然SSD每GB的价格与普通硬盘(HDD)相比高得令人咂舌,但在某些情况下,SSD却要比HDD省钱。SSD有可能更适合那些需要用数量众多的HDD来提升存储系统总体I/O性能的场合。在许多情况下,仅一块SSD就能提供比一组企业级HDD快得多的速度,并以合理的价格提供足够的存储容量。
不过,企业级SSD的价格还是很贵,单价从数千美元到数十万美元不等。这阻碍了IT管理人员和原始设备制造商(OEM)想把SSD普遍用于数据中心的热情,促使他们考虑把数量很有限的SSD用到数据中心的什么地方最合适—是服务器里还是存储阵列里。
SSD与HDD
图1显示了计算系统的存储层次体系。该图表从带宽和每GB成本的角度,对存储层次体系的不同部分所在位置做了大致描述。我们使用重对数图表格式来帮助发掘可能会隐藏的所有数据—要是用线性标度来表述性能或成本,有些数据会隐藏起来。三个标为L1、L2和L3的椭圆形代表处理器里面或外围的三种可能的高速缓存层。
动态随机存储器(DRAM)的性能与HDD的性能存在非常大的差距,这导致多年来需要弥补的差异日渐拉大。虽然企业级HDD位于图1中HDD椭圆形的顶端,但它提供了一种成本相对较高的方式来接近DRAM椭圆形的底端。因此,出现了基于闪存的SSD,这种经济高效的方式可弥补这个差距。
由于近年来NAND每GB的价格已降到低于DRAM,计算机设计人员一直在寻找有意义的方式来充分利用这项技术,以便在降低成本的同时可以改善计算机的性能。闪存SSD正是实现这个目标的一条途径。虽然NAND闪存的速度不及DRAM,但却超过HDD。NAND的价格比DRAM便宜,但比HDD来得贵。因而,这项技术适合弥补高容量HDD与DRAM之间的性能差距。
基于闪存的SSD对企业级HDD构成了重大威胁,许多OEM厂商和IT管理人员预计将来的系统会使用SSD(实现高速)结合低价格高容量的HDD(实现海量存储)来构建,从而跳过了原本可以在低价HDD与DRAM之间找到立足之地的企业级HDD。
最近,一批闪存SSD生产商推出了能满足服务器OEM厂商的需求、价格又让人满意的设备。它们目前的产品价格还很贵(单价超过3000美元),主要用来替换成本高昂的短行程(short-stroked)企业级HDD阵列(短行程这项技术是指,编程人员只使用HDD上的几个邻近磁道,忽略硬盘上的其余磁道,从而设法尽量减少HDD的磁头运动,进而尽量缩短访问时间。)
尽管短行程硬盘只访问一小部分可用磁盘空间,但从磁盘读取数据的速度却比平常快得多。可以采用这种方法,做到让几十IOPS的磁盘以几百IOPS的速度提供数据。在某些情况下,用户们觉得采用这种折衷方法是值得的。如今市面上的一个短行程系统使用53TB的HDD只能提供9TB的可用空间。
EMC公司最近对使用SSD的Symmetrix阵列与标准的纯HDD高性能存储阵列配置做了对比。标准配置用244个300GB容量、15000转的光纤通道HDD构建而成。基于SSD的系统只用了136个同样的300GB光纤通道HDD,但是添加了32个1TB的标准SATA硬盘来扩增容量和8个73GB的固态硬盘来存储对速度最敏感的数据。结果,使用SSD的阵列在硬盘数量少用26%的情况下,提供的IOPS高出60%。系统所需的耗电量比纯HDD系统少21%,成本低17%。
如今的企业级闪存SSD大多号称可提供几万IOPS,也就是说,速度比短行程HDD快100倍左右。固态硬盘的较高带宽,加上短行程HDD实际使用的非常小的容量,常常有望为SSD取代一组HDD提供机会。只要SSD的容量与短行程HDD中所用的容量一样大,只要SSD的带宽与HDD阵列的带宽相匹配,价格又不相上下,SSD就有望提供一种HDD阵列之外的更经济高效的选择。
DRAM固态硬盘
多年来,好几家公司一直在耕耘基于DRAM的固态硬盘市场。这个领域的巨头德州内存系统(Texas Memory Systems)公司早在1976年就推出了第一个SRAM SSD,此后不久又推出了DRAM SSD。Solid Data是另一家从事这个领域的厂商,甚至推出了小型模拟化SSD,专门用于高性能个人电脑游戏社区。很早进入这个领域的厂商还包括EMC和 Dataram,而Violin Memory则是最近涉及该领域的厂商,这家公司提供了一种独特的方法来集成DRAM层。
DRAM SSD提供了极高的性能,但有两个不利因素。首先也是最重要的是,由于使用DRAM,结果每GB的成本要高于服务器中的DRAM主内存。那么,为什么数据中心还要使用这种设备呢?那是因为设计这些硬盘的初衷就是为了添加比服务器硬件和软件所能支持的更多的DRAM。
其次,DRAM SSD具有易失的缺点,因而部署的系统必须为DRAM提供后备支持,以防断电。较旧的系统为DRAM提供后备支持的办法是在电池供电情况下将数据转移到HDD上; 现在的DRAM SSD使用多并行路径(若使用HDD方法,无法获得这些路径),将DRAM中的数据后备至NAND。这提供了非常快的备份和恢复速度,又大大节省了电力,减少了执行这项重要功能所需的电池容量。
DRAM SSD始终会在企业级系统中扮演重要角色。
数据中心中的固态硬盘
数据中心通常由装在独立机柜的服务器和存储系统构建而成(图2)。共享存储系统可解决很多问题,特别是当工作负载在服务器之间转移时,这是由于数据访问任务平均分配给了所有服务器。另一方面,直接安装到服务器中的存储系统越多,必须经过网络传送的存储请求数量就越少。
若使用速度更快的存储系统,网络两端都能得益。存储阵列逐渐使用“分层”存储,在这种环境下,存储阵列用不同速度级别和成本的存储设备来构建。在图1中,最左边代表磁带和HDD的两个椭圆形可以被分为第1层、第2层和第3层。磁带用于第3层,高容量HHD用于第2层,企业级HHD用于第1层。存储阵列把I/O请求最频繁或称为“热”的数据存储在第1层,把很少使用或称为“冷”的数据存储在第3层。阵列中的软件负责管理这些层之间的数据,为“热”数据分配速度较快的存储系统,而把“冷”数据放到较低的存储层上。
SSD出现在存储阵列中后,一个新的层(称为第0层,Tier 0)将应用于这些设备上。SSD的优势在于,它已经很适合现有的管理模式,并且将存储阵列的性能带到了一个新的层面。
EMC公司是第一家广泛支持存储阵列中使用SSD的厂商,2008年年初即宣布了在Symmetrix系统中使用第0层存储。该系统使用了STEC公司的超高速ZeusIOPS光纤通道SSD。
几个月后,IBM公司推出了其DS8000存储系统的升级版本,这款产品基于Fusion-io公司的IOdrive PCIe SSD,可提供高达100万IOPS。
戴尔公司将其存储层命名为“池”(pool),第1池由SSD组成,第2池由企业级HDD组成,以此类推。其他公司也推出了类似产品,有些甚至在EMC之前就推出了,只是它们没有那么高的知名度罢了。
加快存储阵列速度存在的一个困难是,从服务器到阵列的所有数据访问还是会受到网络延迟的影响;而在某些情况下,这种延迟令人无法接受。在这种情况下,数据中心的管理人员经常使用两种方法,一是添加DRAM高速缓存,从存储阵列复制数据;或者安装额外服务器,每一台服务器用来存储及操作一部分工作负载。但这两种方法都需要高昂的成本。
OEM厂商及其客户发现,如果为服务器添加SSD,就能减少对DRAM的需求,有时甚至减少所用服务器的数量。这不仅带来了尽量少占场地、节省电力/冷却成本的好处,还往往会带来另一个潜在的好处,即减少软件许可的成本,因为软件许可常常与处理器数量密切相关。
Sun公司很早就在其服务器中采用了SSD。最初用的是英特尔的SSD,后来推出了可以插入到服务器或专用固态存储板的开放标准SATA模块。这种模块基于供笔记本电脑DRAM使用的JEDEC标准SO-DIMM规格。Sun还宣布了其ZFS文件系统的升级版本,不需要管理员的干预,就能自动管理“热”数据和“冷”数据。
在过去几年中,大多数其他服务器OEM厂商在基于标准SATA SSD的系统中采用了SSD选件;而有些厂商更进一步添加了像Fusion-io公司的IOdrive这样的设备,因而需要对系统进行重新配置。不过,SATA SSD最常见,尽管它们的带宽受到SATA接口的限制。
两种方式共存?
Objective Analysis公司对此并没有倾向于哪种拓扑结构。直接连接的SSD存储系统在减少网络流量方面表现很出色,但影响数据共享。存储阵列中的SSD可以大幅度减少网络延迟,可数据传输仍会受制于网络开销。哪种选择最佳—这在很大程度上取决于工作负载的类型。
从长远来看,随着SSD日益普及(预计最快三年内会出现这一幕),许多数据中心会采用混合方法,把SSD同时添加到存储阵列和服务器中。两者可以共同减少网络流量,缩短响应时间,这样就能获得速度更快的系统,不但所用硬件成本更低、所占场地更小,耗电量也更少。
加州理工大学的Carver Mead教授所说的一番话很适合这种情况。他表示,网络通道所需要的带宽与网络两端的智能水平成反比。许多数据中心的管理人员会发现,若通过利用SSD来增加网络任何一端的智能,自己面临的挑战会从原来的网络延迟问题转移到计算瓶颈的其他部分。
简讯
BLADE推出下一代VMready交换机
本报讯BLADE公司近日宣布,其具有VMready功能的以太网交换机现在可以管理大规模扩展数据中心网络中的数千个虚拟机(VM)。具备独特NMotion功能的BLADE VMready是行业首款也是惟一的虚拟机漂移解决方案,不仅能够检测到虚拟机在所有vSphere许可层面上的迁移,还能在物理交换机上工作,无需专有的数据包标识。BLADE VMready 以太网交换机可以与VMware vCenter服务器无缝地协同工作,以管理VMware vNetwork分布式虚拟交换机(将虚拟机与物理网络的策略和文件相链接)。BLADE的VMready解决了可扩展性、厂商锁定、需要购买替代虚拟交换机和基础设施破坏的问题。当虚拟机在数据中心迁移时,BLADE VMready可以自动保留安全性、性能和访问策略。当与Layer 2 tunneling和BLADE Harmony Manager 5.0一起使用时,VMready可以让虚拟机在包括10万个以上虚拟机的Layer 2网络数据中心内甚至是数据中心之间实现迁移。
3PAR成为首家云安全联盟存储厂商
本报讯3PAR公司日前宣布已加入云安全联盟(CSA),并成为其企业会员。作为加入CSA的首家存储厂商,3PAR在公用存储领域的专业知识和领先的技术水平,有助于定义云计算环境中的安全数据存储,管理的最佳实践和指导准则。具体的关注领域包括:灾难恢复,用户、主机和应用数据三者间的安全管理隔离,以及数据“锁定”,从而满足电子搜索和企业法规遵从的需求。CSA成立于2008年,旨在改善最佳实践,以确保云计算环境内部的安全性,并指导IT行业如何使用云计算以帮助保护其他计算形式的安全。3PAR凭借去年7月推出的3PAR Cloud-Agile(由3PAR实施的一项计划,旨在鼓励发展互惠互利且健全的云计算生态系统),增强了人们对于云计算服务的效率和灵活性优势的认识。通过加入CSA,3PAR离这些目标更近了一步,同时强调了业界对于出台云安全标准的迫切需求。
固态硬盘(SSD)让企业界非常兴奋,其主要原因在于其速度快。虽然SSD每GB的价格与普通硬盘(HDD)相比高得令人咂舌,但在某些情况下,SSD却要比HDD省钱。SSD有可能更适合那些需要用数量众多的HDD来提升存储系统总体I/O性能的场合。在许多情况下,仅一块SSD就能提供比一组企业级HDD快得多的速度,并以合理的价格提供足够的存储容量。
不过,企业级SSD的价格还是很贵,单价从数千美元到数十万美元不等。这阻碍了IT管理人员和原始设备制造商(OEM)想把SSD普遍用于数据中心的热情,促使他们考虑把数量很有限的SSD用到数据中心的什么地方最合适—是服务器里还是存储阵列里。
SSD与HDD
图1显示了计算系统的存储层次体系。该图表从带宽和每GB成本的角度,对存储层次体系的不同部分所在位置做了大致描述。我们使用重对数图表格式来帮助发掘可能会隐藏的所有数据—要是用线性标度来表述性能或成本,有些数据会隐藏起来。三个标为L1、L2和L3的椭圆形代表处理器里面或外围的三种可能的高速缓存层。
动态随机存储器(DRAM)的性能与HDD的性能存在非常大的差距,这导致多年来需要弥补的差异日渐拉大。虽然企业级HDD位于图1中HDD椭圆形的顶端,但它提供了一种成本相对较高的方式来接近DRAM椭圆形的底端。因此,出现了基于闪存的SSD,这种经济高效的方式可弥补这个差距。
由于近年来NAND每GB的价格已降到低于DRAM,计算机设计人员一直在寻找有意义的方式来充分利用这项技术,以便在降低成本的同时可以改善计算机的性能。闪存SSD正是实现这个目标的一条途径。虽然NAND闪存的速度不及DRAM,但却超过HDD。NAND的价格比DRAM便宜,但比HDD来得贵。因而,这项技术适合弥补高容量HDD与DRAM之间的性能差距。
基于闪存的SSD对企业级HDD构成了重大威胁,许多OEM厂商和IT管理人员预计将来的系统会使用SSD(实现高速)结合低价格高容量的HDD(实现海量存储)来构建,从而跳过了原本可以在低价HDD与DRAM之间找到立足之地的企业级HDD。
最近,一批闪存SSD生产商推出了能满足服务器OEM厂商的需求、价格又让人满意的设备。它们目前的产品价格还很贵(单价超过3000美元),主要用来替换成本高昂的短行程(short-stroked)企业级HDD阵列(短行程这项技术是指,编程人员只使用HDD上的几个邻近磁道,忽略硬盘上的其余磁道,从而设法尽量减少HDD的磁头运动,进而尽量缩短访问时间。)
尽管短行程硬盘只访问一小部分可用磁盘空间,但从磁盘读取数据的速度却比平常快得多。可以采用这种方法,做到让几十IOPS的磁盘以几百IOPS的速度提供数据。在某些情况下,用户们觉得采用这种折衷方法是值得的。如今市面上的一个短行程系统使用53TB的HDD只能提供9TB的可用空间。
EMC公司最近对使用SSD的Symmetrix阵列与标准的纯HDD高性能存储阵列配置做了对比。标准配置用244个300GB容量、15000转的光纤通道HDD构建而成。基于SSD的系统只用了136个同样的300GB光纤通道HDD,但是添加了32个1TB的标准SATA硬盘来扩增容量和8个73GB的固态硬盘来存储对速度最敏感的数据。结果,使用SSD的阵列在硬盘数量少用26%的情况下,提供的IOPS高出60%。系统所需的耗电量比纯HDD系统少21%,成本低17%。
如今的企业级闪存SSD大多号称可提供几万IOPS,也就是说,速度比短行程HDD快100倍左右。固态硬盘的较高带宽,加上短行程HDD实际使用的非常小的容量,常常有望为SSD取代一组HDD提供机会。只要SSD的容量与短行程HDD中所用的容量一样大,只要SSD的带宽与HDD阵列的带宽相匹配,价格又不相上下,SSD就有望提供一种HDD阵列之外的更经济高效的选择。
DRAM固态硬盘
多年来,好几家公司一直在耕耘基于DRAM的固态硬盘市场。这个领域的巨头德州内存系统(Texas Memory Systems)公司早在1976年就推出了第一个SRAM SSD,此后不久又推出了DRAM SSD。Solid Data是另一家从事这个领域的厂商,甚至推出了小型模拟化SSD,专门用于高性能个人电脑游戏社区。很早进入这个领域的厂商还包括EMC和 Dataram,而Violin Memory则是最近涉及该领域的厂商,这家公司提供了一种独特的方法来集成DRAM层。
DRAM SSD提供了极高的性能,但有两个不利因素。首先也是最重要的是,由于使用DRAM,结果每GB的成本要高于服务器中的DRAM主内存。那么,为什么数据中心还要使用这种设备呢?那是因为设计这些硬盘的初衷就是为了添加比服务器硬件和软件所能支持的更多的DRAM。
其次,DRAM SSD具有易失的缺点,因而部署的系统必须为DRAM提供后备支持,以防断电。较旧的系统为DRAM提供后备支持的办法是在电池供电情况下将数据转移到HDD上; 现在的DRAM SSD使用多并行路径(若使用HDD方法,无法获得这些路径),将DRAM中的数据后备至NAND。这提供了非常快的备份和恢复速度,又大大节省了电力,减少了执行这项重要功能所需的电池容量。
DRAM SSD始终会在企业级系统中扮演重要角色。
数据中心中的固态硬盘
数据中心通常由装在独立机柜的服务器和存储系统构建而成(图2)。共享存储系统可解决很多问题,特别是当工作负载在服务器之间转移时,这是由于数据访问任务平均分配给了所有服务器。另一方面,直接安装到服务器中的存储系统越多,必须经过网络传送的存储请求数量就越少。
若使用速度更快的存储系统,网络两端都能得益。存储阵列逐渐使用“分层”存储,在这种环境下,存储阵列用不同速度级别和成本的存储设备来构建。在图1中,最左边代表磁带和HDD的两个椭圆形可以被分为第1层、第2层和第3层。磁带用于第3层,高容量HHD用于第2层,企业级HHD用于第1层。存储阵列把I/O请求最频繁或称为“热”的数据存储在第1层,把很少使用或称为“冷”的数据存储在第3层。阵列中的软件负责管理这些层之间的数据,为“热”数据分配速度较快的存储系统,而把“冷”数据放到较低的存储层上。
SSD出现在存储阵列中后,一个新的层(称为第0层,Tier 0)将应用于这些设备上。SSD的优势在于,它已经很适合现有的管理模式,并且将存储阵列的性能带到了一个新的层面。
EMC公司是第一家广泛支持存储阵列中使用SSD的厂商,2008年年初即宣布了在Symmetrix系统中使用第0层存储。该系统使用了STEC公司的超高速ZeusIOPS光纤通道SSD。
几个月后,IBM公司推出了其DS8000存储系统的升级版本,这款产品基于Fusion-io公司的IOdrive PCIe SSD,可提供高达100万IOPS。
戴尔公司将其存储层命名为“池”(pool),第1池由SSD组成,第2池由企业级HDD组成,以此类推。其他公司也推出了类似产品,有些甚至在EMC之前就推出了,只是它们没有那么高的知名度罢了。
加快存储阵列速度存在的一个困难是,从服务器到阵列的所有数据访问还是会受到网络延迟的影响;而在某些情况下,这种延迟令人无法接受。在这种情况下,数据中心的管理人员经常使用两种方法,一是添加DRAM高速缓存,从存储阵列复制数据;或者安装额外服务器,每一台服务器用来存储及操作一部分工作负载。但这两种方法都需要高昂的成本。
OEM厂商及其客户发现,如果为服务器添加SSD,就能减少对DRAM的需求,有时甚至减少所用服务器的数量。这不仅带来了尽量少占场地、节省电力/冷却成本的好处,还往往会带来另一个潜在的好处,即减少软件许可的成本,因为软件许可常常与处理器数量密切相关。
Sun公司很早就在其服务器中采用了SSD。最初用的是英特尔的SSD,后来推出了可以插入到服务器或专用固态存储板的开放标准SATA模块。这种模块基于供笔记本电脑DRAM使用的JEDEC标准SO-DIMM规格。Sun还宣布了其ZFS文件系统的升级版本,不需要管理员的干预,就能自动管理“热”数据和“冷”数据。
在过去几年中,大多数其他服务器OEM厂商在基于标准SATA SSD的系统中采用了SSD选件;而有些厂商更进一步添加了像Fusion-io公司的IOdrive这样的设备,因而需要对系统进行重新配置。不过,SATA SSD最常见,尽管它们的带宽受到SATA接口的限制。
两种方式共存?
Objective Analysis公司对此并没有倾向于哪种拓扑结构。直接连接的SSD存储系统在减少网络流量方面表现很出色,但影响数据共享。存储阵列中的SSD可以大幅度减少网络延迟,可数据传输仍会受制于网络开销。哪种选择最佳—这在很大程度上取决于工作负载的类型。
从长远来看,随着SSD日益普及(预计最快三年内会出现这一幕),许多数据中心会采用混合方法,把SSD同时添加到存储阵列和服务器中。两者可以共同减少网络流量,缩短响应时间,这样就能获得速度更快的系统,不但所用硬件成本更低、所占场地更小,耗电量也更少。
加州理工大学的Carver Mead教授所说的一番话很适合这种情况。他表示,网络通道所需要的带宽与网络两端的智能水平成反比。许多数据中心的管理人员会发现,若通过利用SSD来增加网络任何一端的智能,自己面临的挑战会从原来的网络延迟问题转移到计算瓶颈的其他部分。
简讯
BLADE推出下一代VMready交换机
本报讯BLADE公司近日宣布,其具有VMready功能的以太网交换机现在可以管理大规模扩展数据中心网络中的数千个虚拟机(VM)。具备独特NMotion功能的BLADE VMready是行业首款也是惟一的虚拟机漂移解决方案,不仅能够检测到虚拟机在所有vSphere许可层面上的迁移,还能在物理交换机上工作,无需专有的数据包标识。BLADE VMready 以太网交换机可以与VMware vCenter服务器无缝地协同工作,以管理VMware vNetwork分布式虚拟交换机(将虚拟机与物理网络的策略和文件相链接)。BLADE的VMready解决了可扩展性、厂商锁定、需要购买替代虚拟交换机和基础设施破坏的问题。当虚拟机在数据中心迁移时,BLADE VMready可以自动保留安全性、性能和访问策略。当与Layer 2 tunneling和BLADE Harmony Manager 5.0一起使用时,VMready可以让虚拟机在包括10万个以上虚拟机的Layer 2网络数据中心内甚至是数据中心之间实现迁移。
3PAR成为首家云安全联盟存储厂商
本报讯3PAR公司日前宣布已加入云安全联盟(CSA),并成为其企业会员。作为加入CSA的首家存储厂商,3PAR在公用存储领域的专业知识和领先的技术水平,有助于定义云计算环境中的安全数据存储,管理的最佳实践和指导准则。具体的关注领域包括:灾难恢复,用户、主机和应用数据三者间的安全管理隔离,以及数据“锁定”,从而满足电子搜索和企业法规遵从的需求。CSA成立于2008年,旨在改善最佳实践,以确保云计算环境内部的安全性,并指导IT行业如何使用云计算以帮助保护其他计算形式的安全。3PAR凭借去年7月推出的3PAR Cloud-Agile(由3PAR实施的一项计划,旨在鼓励发展互惠互利且健全的云计算生态系统),增强了人们对于云计算服务的效率和灵活性优势的认识。通过加入CSA,3PAR离这些目标更近了一步,同时强调了业界对于出台云安全标准的迫切需求。