中国存储网消息,近日人工智能云提供商 CoreWeave宣布推出 CoreWeave AI 对象存储,这是一项行业领先的完全托管对象存储服务,专为 AI 工作负载而构建。CoreWeave AI 对象存储由 CoreWeave 的本地对象传输加速器 (LOTA) 技术提供支持,使单个数据集可以在世界任何地方即时访问,而无需任何出口费用或请求/交易费用限制其使用方式或地点。人工智能性能取决于数据移动性——对正确数据的时机和访问可以决定创新的成败。高性能 AI 训练依赖于位于 GPU 计算集群附近的大型数据集。传统的云存储并非针对这种级别的吞吐量或灵活性而设计,使开发人员受到延迟、复杂性和成本的限制。
“作为人工智能必不可少的云,每一层的每一个决策都专注于优化效率和性能,”CoreWeave 联合创始人兼首席技术官 Peter Salanki 说。“现在,我们正在从头开始重新考虑存储。我们构建了一个系统,让数据不再受地理或云边界的限制,让开发人员可以自由地进行创新,而不会产生摩擦或隐藏成本。这是人工智能工作负载运行方式真正改变游戏规则的转变。
与仅限于 IT 基础设施的一部分的传统对象存储不同,CoreWeave AI 对象存储的性能会随着 AI 工作负载的增长而扩展,并在来自任何区域、任何云或本地的分布式 GPU 节点上保持卓越的吞吐量。私有互连、直接云对等互连和支持 400GB ps 的端口可确保全球工作负载的数万亿个对象的数据完整性。这种多云网络主干网可确保世界各地的开发人员获得相同的高吞吐量 GPU 性能,而无需处理数据蔓延或资源密集型数据复制。
CoreWeave 还推出了三个基于使用情况的自动定价层,为现有客户的典型 AI 工作负载提供 75% 以上的存储成本。新模式没有出口、请求或分层费用,为客户提供了更大的灵活性和可见性,将成本直接与使用情况保持一致,同时不断保持 CoreWeave 无与伦比的性能和简单性。这使得 CoreWeave AI 对象存储成为业内最具成本效益、对开发人员最友好的存储选项之一。
“在 Replicate,我们的使命是让开发人员能够轻松地大规模运行和共享 ML 模型。这需要跨环境快速灵活的存储,“Replicate 首席工程师 Morgan Fainberg 说。“借助 CoreWeave 在 CoreWeave AI 对象存储中的跨云功能,我们可以依靠单个数据集来支持模型,无论模型部署在何处。这消除了复制开销,消除了出口成本,并确保我们的用户始终能够高性能地访问他们创新所需的数据。
今天的公告标志着 CoreWeave 不断扩展其软件生态系统的最新一步。上周,CoreWeave 宣布推出 ServerlessRL,这是第一个公开可用的完全托管的强化学习功能。CoreWeave 培育了一个多元化和开放的人工智能生态系统,其技术团队不断设定新的性能标准,该公司行业领先的 MLPerf 人工智能工作负载基准测试和 SemiAnalysis ClusterMAX 系统中的白金评级就证明了这一点。
CoreWeave 致力于重新定义为人工智能提供动力的含义。该公司的云平台将从高性能计算到构建者大规模开发、测试和部署人工智能所依赖的关键软件层的基本工具结合在一起。CoreWeave 通过有机创新继续扩展其能力,通过 CoreWeave Ventures 为创始人提供资本和计算支持,并通过战略收购包括 OpenPipe,推进强化学习;权重和偏差,为模型迭代、实验跟踪和推理提供支持;以及即将收购的 Monolith AI,该公司将机器学习应用于复杂的物理和工程挑战。