中存储消息,近日美国超微公司 Supermicro 宣布推出采用 NVIDIA 最新 HGX H200 GPU(配备 H200 Tensor Core GPU)的新服务器产品,这些产品将在生成式 AI 和 LLM 训练领域大显身手。
该公司正准备发布包括 8U 和 4U 通用 GPU 系统的 AI 平台,这些平台完全支持具有 8-GPU 和 4-GPU 配置的 HGX H200。这些系统采用 HBM3e 技术,内存带宽增强,与前几代产品相比,其容量几乎翻了一番,带宽提高了 1.4 倍。这种硬件能力的飞跃有望满足人工智能研发中对更复杂的计算任务日益增长的需求。
此外,Supermicro 还宣布推出一款采用液冷 4U 系统的 NVIDIA HGX H100 8-GPU 系统的高密度服务器,该系统采用了该公司最新的冷却技术。Supermicro 声称它是业界最紧凑的高性能 GPU 服务器,并表示该系统允许在单个机架单元中实现迄今为止最高密度的 AI 训练容量,并将有助于确保成本和能源效率。
与 NVIDIA 的合作使 Supermicro 能够走在 AI 系统设计的前沿,为 AI 训练和 HPC 工作负载提供优化的解决方案。该公司对快速创新的承诺体现在他们的系统架构中,该架构允许技术进步的快速市场部署。新的 AI 系统采用 NVIDIA 的互连技术,如 NVLink 和 NVSwitch,可支持 900GB/s 的超高速数据传输,每个节点提供高达 1.1TB 的 HBM3e 内存,优化 AI 算法并行处理的性能。
Supermicro 提供多样化的 AI 服务器,包括广泛使用的 8U 和 4U 通用 GPU 系统。这些系统采用四路和八路 NVIDIA HGX H100 GPU,现在已准备好用于新的 H200 GPU(具有 41GB 内存,带宽为 4.8TB/s),从而可以更快地训练更大的语言模型。
Supermicro 将在即将到来的 SC23 上展示 4U 通用 GPU 系统。