中国存储网消息,英伟达公司宣布与Meta建立跨越本地、云和人工智能基础设施的多世代战略合作关系。Meta将建设针对训练和推理优化的超大规模数据中心,以支持公司的长期人工智能基础设施路线图。该合作将使英伟达CPU和数百万英伟达Blackwell和Rubin显卡的大规模部署成为可能,同时将Nvidia Spectrum-X以太网交换机集成到Meta的Facebook开放交换系统平台。
“没有人能以Meta那样规模部署人工智能——将前沿研究与工业级基础设施整合,驱动全球最大的个性化和推荐系统,服务数十亿用户,”Nvidia创始人兼首席执行官Jensen Huang表示。“通过跨CPU、GPU、网络和软件的深度协同设计,我们将完整的Nvidia平台带给Meta的研究人员和工程师,帮助他们为下一个AI前沿奠定基础。”
Meta创始人兼首席执行官马克·扎克伯格表示:“我们很高兴能扩大与英伟达的合作,利用他们的Vera Rubin平台打造领先的集群,向全球每个人提供个人超级智能。”
扩展英伟达CPU部署以提升性能
Meta与英伟达继续合作,在Meta数据中心生产应用中部署基于Arm的Nvidia Grace CPU,作为Meta长期基础设施战略的一部分,显著提升数据中心的每瓦性能。
此次合作是首次大规模仅限Nvidia Grace的部署,配合联合设计和软件优化投资于CPU生态系统库,以提升每一代的每瓦性能。
两家公司还在合作部署Nvidia Vera CPU,预计2027年大规模部署,进一步扩展Meta节能的AI计算能力,推动更广泛的Arm软件生态系统发展。
统一架构支持 Meta 的人工智能基础设施
Meta 将部署行业领先的基于 Nvidia GB300 的系统,打造涵盖本地数据中心和 Nvidia 云合作伙伴部署的统一架构,以简化运营同时最大化性能和可扩展性。
此外,Meta已在其基础设施覆盖范围内采用了Nvidia Spectrum-X以太网平台,提供AI规模的网络,提供可预测、低延迟的性能,同时最大化利用率并提升运营和能效。
WhatsApp 的机密计算
Meta 采用了 Nvidia Confidential Computing 用于 WhatsApp 私有处理,实现了消息平台的 AI 驱动能力,同时确保用户数据的机密性和完整性。
英伟达与Meta正合作,将Nvidia Confidential Compute能力从WhatsApp扩展到Meta产品组合的新兴应用场景,支持大规模的隐私增强型AI。
共同设计Meta下一代AI模型
英伟达和Meta的工程团队正深度协同设计,优化并加速Meta核心工作负载中的最先进AI模型。这些努力将英伟达的全栈平台与Meta的大规模生产工作负载相结合,推动全球数十亿用户使用的新型AI能力的更高性能和效率。