中国存储网消息,Nutanix已扩大与英伟达的合作,推出集成AI作环境,使其云基础设施软件与英伟达最新的企业级AI硬件和软件平台对齐。
这些公司针对的是那些将生成式人工智能项目从试点阶段推向生产阶段,需要更可预测基础设施和管理的企业。该综合环境将Nutanix的计算、存储、虚拟化和Kubernetes技术栈与Nvidia AI Enterprise软件及即将推出的Rubin平台技术结合在一起。
Nutanix表示,其以人工智能为核心的运营环境位于其雅典卫城的系统存储平台和自动视线虚拟化器(AHV)虚拟机管理程序上。它还利用了 Nutanix Kubernetes 平台、Nutanix 企业人工智能、Nutanix 统一存储和数据库产品。Canonical 的 Ubuntu Pro作系统可用于裸机 Kubernetes 部署。
这些公司将其定位为他们所称的“人工智能工厂”的单一运营层。该环境支持在Nvidia GPU基础设施和Nvidia AI Enterprise软件套件(包括用于模型推断的Nvidia NIM微服务)上部署生成式AI工作负载。
专注于生产
大部分工作集中在已经投资于基于Nvidia基础设施的企业。Nutanix表示,该集成技术栈旨在缩短生成式AI模型硬件交付与生产使用之间的时间。它还希望客户在一致的运营框架下运行AI工作负载,而不是将多个基础设施工具拼接在一起。
这项联合工作还延伸到英伟达未来的硬件架构。Nutanix 计划支持基于 Vera Arm 的 Nvidia Rubin 平台,包括基于 Vera Arm 的 CPU 和 Rubin GPU,适用于裸机和虚拟化环境,使用 AHV 和 Nutanix Kubernetes 平台。
Nutanix 还计划支持 Nvidia Inference 上下文内存存储平台。该平台使用Nvidia BlueField-4存储处理器处理大规模推理工作负载的数据。此外,Nutanix还将集成Nvidia Spectrum-X以太网光子交换机系统,为其AI运营环境提供以人工智能为核心的数据中心互联。
以令牌为中心的设计
Nutanix将合并系统描述为围绕生成式AI工作负载基于代币的特性设计的。英伟达的GPU和软件负责高强度的令牌处理和模型执行。Nutanix 为这些工作负载在本地和混合环境中提供底层存储、计算编排和虚拟化。
公司表示,其环境旨在让企业更严格地控制AI工作负载的运行位置及数据管理方式。这包括支持不同的部署模型,从裸机GPU集群到虚拟化集群和基于容器的环境。
Nutanix 还强调了对开源组件的持续支持。公司表示将继续与最新的英伟达开放许可模型和NIM微服务合作,计划通过其AI作环境向客户展示这些模型,满足多种客户需求。
对于企业来说,这一安排为在两家公司提供基础设施上的生成式AI服务提供了预先整合的途径。它还旨在使Nutanix的技术栈与英伟达围绕Nvidia AI Enterprise的认证生态系统保持一致。
英伟达的观点
英伟达将这次合作置于其视为工业计算中人工智能驱动的转变背景下。公司将Rubin平台和AI企业软件定位为寻求更大数据控制和部署的组织的基础。
“人工智能驱动的工业革命需要一个剥离复杂性的基础,以快速实现企业AI的价值回报,”英伟达企业AI产品副总裁贾斯汀·博伊塔诺说。“通过将NVIDIA Rubin平台与Nutanix的人工智能运营环境集成,组织获得了主权的人工智能基础,能够建设自己的人工智能工厂,并将专有数据转化为决定性的竞争优势。”
Nutanix表示,随着Rubin及相关技术的全面可用,将与英伟达紧密合作。公司计划在未来的英伟达硬件和软件发布中加入更多集成,专为大规模推理和训练工作负载设计。