DDN 宣布与下一代 Nvidia DGX 系统兼容,每个系统都包括 8 个 H100 Tensor Core GPU.
DGX H100 超级计算机是 Nvidia 公司专用人工智能系统的第四代,旨在处理最繁重的培训工作负载,如自然语言处理和 DL 推荐器模型。
这些类型的工作负载需要大数据模型和高速吞吐量才能提供突破性的结果,而将 DGX 系统与公司的 A³I 配对是 AI 卓越中心久经考验的组合 WW.
AI400X2 存储设备
该公司的 AI400X2 存储设备与 DGX H100 系统的兼容性建立在该公司经过现场验证的基于 DGX A100 的 DGX BasePOD 参考架构 (RA) 和 DGX SuperPOD 系统的部署之上,这些系统已被客户用于一系列用例。作为用于 AI 部署的 A 3I 基础架构解决方案的一部分,客户可以扩展以支持具有多个 DGX 系统的更大工作负载。DDN 还支持最新的 Nvidia Quantum-2 和 Spectrum-4 400Gb/s 网络技术。这些系统经过 Nvidia QM9700 Quantum-2 IB 和 SN4700 Spectrum-4 400GbE 交换机验证,由 Nvidia 推荐用于 DGX BasePOD RA 和 DGX SuperPOD。DGX H100 系统的 IO 能力是上一代系统的两倍,因此进一步需要使用高性能存储解决方案,例如该公司的 AI400X2。
简化人工智能的下一步 采用超级计算
“随着企业意识到人工智能为业务转型提供的力量,对可扩展的人工智能基础设施的需求持续增长,”产品高级副总裁James Coomer博士说。“我们看到越来越多的组织正在从评估人工智能转向应用人工智能来交付业务成果。这些组织正在寻找经过验证的基础设施,以简单有效的方式集成到他们的数据中心,这正是带有DDN存储的Nvidia DGX系统所提供的。
除了这些本地部署选项外,该公司还宣布与Lambda.建立合作伙伴关系。 提供基于 Nvidia DGX SuperPOD 的可扩展数据解决方案,拥有超过 31 个 DGX H100 系统。Lambda打算使用这些系统,允许客户保留2到31个由DDN并行存储和完整的3,200Mb / s GPU结构支持的DGX实例。此托管产品提供对基于 GPU 的计算的快速访问,而无需承诺大型数据中心部署以及简单的竞争性定价结构。Lambda 之所以选择该公司作为该项目的后端存储,是因为该公司在 DGX SuperPOD 部署方面拥有良好的记录,以及 DDN 带来的大规模存储专业知识。Lambda还将销售带有A 3 I存储的DGX BasePOD和DGX SuperPOD,供希望建立现场部署的客户使用。