模块化数据中心希望吸引IT用户至某个完全集所有功能于一体的系统中,只需要通过单一合同和已知的性能指标来定义工作负载。这被称做“一体型数据中心”,这些系统已经开发了相当长的时间,并达到了一个理想的远程计算环境。
数据中心硬件的历史简述
数据中心硬件已经从旧型号,对温度、湿度和颗粒度要求指标苛刻的大型机开始,有了长足的进化。新型的X86架构塔式服务器提供了更多的计算能力,同时对温度等要求却没有那么敏感。
即使是更小型,更高密度的机架式系统,虽然可能在特定区域集中散热,但仍有自己的优势。刀片服务器允许数据中心设计师根据需求把所有的计算资源,如CPU、存储与网络作为独立的“块”整合在一起,满足某些特殊场景需求。
但是刀片机计算并没有如预期那样真正突飞猛进。随着虚拟化和云计算成为主流并进入企业发展蓝图,关注重心回归到使用廉价服务器横向扩展,或“披萨盒”服务器,为大型数据中心带来所需的计算能力。
主流计算世界的设备
即使在向外扩展策略为主的数据中心内,某些负载仍会要求进行向上扩展升级,包括IBM的System p和i系列服务器、Sun(现在是Oracle)的UltraSPARC/Solaris系统以及HP的Superdome服务器。
但如果向外扩展和向上扩展都不是最终答案,那究竟会是什么?
大部分组织最终选择了一种混合模式,大规模使用向外扩展类型的服务器,同时还保留了一些如IBM大型机那样的设备来满足特定工作负载需求。
工程系统逻辑演变的最终结果是“柜式数据中心”。所有技术位都安装在一个标准的道路集装箱内,当集装箱被运输至现成后,进行电力和供水检测。集装箱式数据中心最初是因为远程站点需要计算机能力或某种原因需要临时使用,用以扩充现有数据中心设施资源。
融合基础设施方案的第一家厂商是思科,其2009年首次亮相统一计算系统(UCS), 结合CPU、存储、网络,为某些Windows服务器负载进行了优化设计。思科与其合作伙伴VMware和EMC组成了VCE联盟,共同推出了 Vblock参考架构。Dell同样推出了其vStart虚拟化方案以及私有云计算解决方案。每个系统设计都是将CPU、存储和网络组件整合,创造一个整体系统,并优化达到某个特定的工作负载。
由于每个应用系统都是基于X86架构,往往只为Windows或Linux操作系统的负载服务,对IBM来说,该领域是块空白。2010年,IBM开发了zEnterprise—大型机,刚好拥有许多Power CPU,而且软件可以智能的将工作负载分配到适合的平台。用户可以添加x86系统,用于创造多负载引擎。不幸的是,这种创新基于大型机阵营,被大部分采用分布式计算的组织忽略了。
IBM之后对PureFlex的计算机范围进行了再次拆装——将x86与Power CPU结合,同样采用了将存储与网络放在一个盒子的设计——并使用工作负载管理软件来确保正确的负载在正确的时间,以便分配到正确的平台。
如今,像这样的集成架构会比早期更加自给自足,还包含有针对性设计的冷却系统以及整齐布线系统。系统内的专有连接降低延时并提高性能,并且保证外部连接仍然标准化。系统可以在其到达数据中心前就做好准备,这样可以将安装到生产时间缩短到几个小时。
这些集装箱系统现在正作为工程系统使用,完成各自的任务。微软在自己的全球数据中混合使用了集装箱与模块化系统。Intel正在研究不需要冷却的数据中 心:一个完全密封的容器在高温下容易导致设备故障率升高,但只要有良好的设计与工程,供过于求的设备应该可以保证在容器需要更换之前,能够稳定运行。
所有工作负载是不一样的,数据中心最重要的指标是用户体验。确保每个运行在工作负载上的平台是最适合其性能要求的。向外扩展的平台系统仍旧可以提供更好的计算负载和性能,但诸如云计算的动态工作负载,定义和灵活的融合数据中心系统将得到越来越多的关注和采纳。
一体式数据中心系统是融合基础架构的合理进化,只需要通过单一合同和已知的性能指标来定义工作负载。并达到了一个理想的远程计算环境。数据中心系统有望产生变革。这些盒子将融合汇聚所有组件并通过特定软件管理工作量,实现高度优化和运行。 模块化数据中心希望吸引IT用户至某个完全集所有功能于一体的系统中,只需要通过单一合同和已知的性能指标来定义工作负载。这被称做“一体型数据中心”,这些系统已经开发了相当长的时间,并达到了一个理想的远程计算环境。 数据中心硬件的历史简述 数据中心硬件已经从旧型号,对温度、湿度和颗粒度要求指标苛刻的大型机开始,有了长足的进化。新型的X86架构塔式服务器提供了更多的计算能力,同时对温度等要求却没有那么敏感。 即使是更小型,更高密度的机架式系统,虽然可能在特定区域集中散热,但仍有自己的优势。刀片服务器允许数据中心设计师根据需求把所有的计算资源,如CPU、存储与网络作为独立的“块”整合在一起,满足某些特殊场景需求。 但是刀片机计算并没有如预期那样真正突飞猛进。随着虚拟化和云计算成为主流并进入企业发展蓝图,关注重心回归到使用廉价服务器横向扩展,或“披萨盒”服务器,为大型数据中心带来所需的计算能力。 主流计算世界的设备 即使在向外扩展策略为主的数据中心内,某些负载仍会要求进行向上扩展升级,包括IBM的System p和i系列服务器、Sun(现在是Oracle)的UltraSPARC/Solaris系统以及HP的Superdome服务器。 但如果向外扩展和向上扩展都不是最终答案,那究竟会是什么? 大部分组织最终选择了一种混合模式,大规模使用向外扩展类型的服务器,同时还保留了一些如IBM大型机那样的设备来满足特定工作负载需求。 工程系统逻辑演变的最终结果是“柜式数据中心”。所有技术位都安装在一个标准的道路集装箱内,当集装箱被运输至现成后,进行电力和供水检测。集装箱式数据中心最初是因为远程站点需要计算机能力或某种原因需要临时使用,用以扩充现有数据中心设施资源。 融合基础设施方案的第一家厂商是思科,其2009年首次亮相统一计算系统(UCS), 结合CPU、存储、网络,为某些Windows服务器负载进行了优化设计。思科与其合作伙伴VMware和EMC组成了VCE联盟,共同推出了 Vblock参考架构。Dell同样推出了其vStart虚拟化方案以及私有云计算解决方案。每个系统设计都是将CPU、存储和网络组件整合,创造一个整体系统,并优化达到某个特定的工作负载。 由于每个应用系统都是基于X86架构,往往只为Windows或Linux操作系统的负载服务,对IBM来说,该领域是块空白。2010年,IBM开发了zEnterprise—大型机,刚好拥有许多Power CPU,而且软件可以智能的将工作负载分配到适合的平台。用户可以添加x86系统,用于创造多负载引擎。不幸的是,这种创新基于大型机阵营,被大部分采用分布式计算的组织忽略了。 IBM之后对PureFlex的计算机范围进行了再次拆装——将x86与Power CPU结合,同样采用了将存储与网络放在一个盒子的设计——并使用工作负载管理软件来确保正确的负载在正确的时间,以便分配到正确的平台。 如今,像这样的集成架构会比早期更加自给自足,还包含有针对性设计的冷却系统以及整齐布线系统。系统内的专有连接降低延时并提高性能,并且保证外部连接仍然标准化。系统可以在其到达数据中心前就做好准备,这样可以将安装到生产时间缩短到几个小时。 这些集装箱系统现在正作为工程系统使用,完成各自的任务。微软在自己的全球数据中混合使用了集装箱与模块化系统。Intel正在研究不需要冷却的数据中 心:一个完全密封的容器在高温下容易导致设备故障率升高,但只要有良好的设计与工程,供过于求的设备应该可以保证在容器需要更换之前,能够稳定运行。 所有工作负载是不一样的,数据中心最重要的指标是用户体验。确保每个运行在工作负载上的平台是最适合其性能要求的。向外扩展的平台系统仍旧可以提供更好的计算负载和性能,但诸如云计算的动态工作负载,定义和灵活的融合数据中心系统将得到越来越多的关注和采纳。