NVIDIA 正在 Microsoft Azure 上推出 AI 代工服务,对于深入研究定制生成式 AI 的企业来说,这是一个强大的新工具。
以下是 NVIDIA 的 AI 代工服务带来的成果:
- NVIDIA AI 基础模型:这些是您的 AI 构建块。
- NVIDIA NeMo 框架和工具:用于微调 AI 的工具包。
- NVIDIA DGX 云 AI 超级计算服务:将您的 AI 梦想变为现实的强大引擎。
借助这些元素,企业可以制作自己的 AI 模型,用于智能搜索和内容创建等功能,所有这些都由 NVIDIA AI Enterprise 软件提供支持。
面向生成式 AI 驱动应用的定制模型
NVIDIA 的 AI 代工服务可以为各行各业的生成式 AI 应用定制模型,包括企业软件、电信和媒体。当自定义模型准备好部署时,企业可以使用一种称为检索增强生成 (RAG) 的技术将其模型与企业数据连接起来,并访问新的见解。
NVIDIA 的服务不仅仅是为了展示;这很实用。行业领导者 SAP SE、Amdocs 和 Getty Images 已经在使用此服务创建自定义模型。从软件到电信等行业现在都可以制作适合其需求的 AI 应用程序。SAP 正在将其用于其 AI 副驾驶 Joule,而 Amdocs 正在增强其用于电信 AI 解决方案的 amAIz 框架。
NVIDIA 首席执行官黄仁勋强调了该服务使用公司独特数据定制 AI 的能力。Microsoft 首席执行官萨蒂亚·纳德拉 (Satya Nadella) 致力于在 NVIDIA 的帮助下推动 Azure 上的 AI 创新。
Nemotron-3 8B系列
NVIDIA 提供各种 AI Foundation 模型,包括多功能 Nemotron-3 8B 系列,可在 Azure AI 和 NVIDIA NGC 目录中使用。这些型号可用于多语言使用和各种应用。针对 NVIDIA 进行了优化以加速计算,Meta 的 Llama 2 模型等社区模型也在 NVIDIA NGC 上提供,并将很快加入 Azure AI 模型目录。
NVIDIA DGX Cloud 登陆 Azure Marketplace
NVIDIA DGX Cloud AI 超级计算现已在 Azure Marketplace 上架。租用您需要的内容,轻松扩展,并享受 NVIDIA AI Enterprise 软件,以便快速定制 LLM。它具有客户可以租用的实例,可扩展到数千个 NVIDIA Tensor Core GPU,并配备 NVIDIA AI Enterprise 软件(包括 NeMo),以加速 LLM 定制。
通过将 NVIDIA AI Enterprise 集成到 Azure 机器学习中,用户可以获得稳定、安全的 AI 平台。它还在 Azure Marketplace 上提供一系列 AI 开发和部署可能性。
NVIDIA 在 Azure 上的 AI 代工服务不仅仅是一次更新;这是一种创新的定制 AI 开发方法。
NVIDIA 和 Microsoft 通过先进的 AI 功能增强 Azure
Microsoft正在Azure上升级其AI游戏,引入新的基于H100的虚拟机,并计划未来添加H200 Tensor Core GPU。在 Ignite 大会上宣布,新的 NC H100 v5 VM 系列是云计算领域的首款产品,采用 NVIDIA H100 NVL GPU。这些虚拟机配备了两个由 NVIDIA NVLink 连接的基于 PCIe 的 H100 GPU,可提供近 4 petaflops 的 AI 计算和 188GB 的高速 HBM3 内存。H100 NVL GPU 性能强大,与以前的型号相比,GPT-3 175B 的性能提高了 12 倍,非常适合推理和主流训练工作负载。
将 NVIDIA H200 Tensor Core GPU 集成到 Azure 中
Microsoft计划明年将NVIDIA H200 Tensor Core GPU集成到Azure中。此升级旨在在不增加延迟的情况下处理更大的模型推理,非常适合 LLM 和生成式 AI 模型。H200 凭借其 141GB 的 HBM3e 内存和 4.8 TB/s 的峰值内存带宽脱颖而出,性能明显优于 H100。
此外,Microsoft正在通过NCC H100 v5扩展其NVIDIA加速产品,NCC H100 v5是一种新的机密VM。这些 Azure 机密 VM 配备了 NVIDIA H100 Tensor Core GPU,可确保数据和应用程序在使用时的机密性和完整性。这种增强的安全功能与 H100 的加速功能相结合,将很快在个人预览版中提供。
NVIDIA 和 Microsoft 的这些进步标志着 Azure 云计算和 AI 功能的重大飞跃,为要求苛刻的 AI 工作负载提供了前所未有的功能和安全性。
NVIDIA 在 Omniverse Cloud 上推出全新仿真引擎,推动汽车数字化
NVIDIA 正在 Omniverse Cloud 上推出两个新的模拟引擎:虚拟工厂模拟引擎和自动驾驶汽车 (AV) 模拟引擎,从而加强其在汽车行业的应用。Omniverse Cloud 托管在 Microsoft Azure 上,正在改变汽车公司处理产品生命周期的方式,从物理、手动流程转变为软件驱动的 AI 增强型数字系统。
虚拟工厂仿真引擎:汽车制造商的游戏规则改变者
该引擎是工厂规划团队实时连接和协作处理大型工业数据集的工具包。它使设计团队能够构建虚拟工厂并无缝共享他们的工作。这提高了生产质量和产量,并通过避免施工后的变化节省了大量时间和金钱。
主要功能包括与Autodesk Factory Planning和Siemens的NX等现有软件的兼容性,从而增强了跨各种平台的协作。T-Systems 和 SoftServe 已经利用该引擎来开发自定义虚拟工厂应用程序。
AV 仿真引擎:彻底改变自动驾驶汽车开发
AV 仿真引擎旨在提供高保真传感器仿真,这对于开发下一代 AV 架构至关重要。它允许开发人员在虚拟环境中测试自主系统,集成车辆堆栈层,如感知、规划和控制。
该引擎对于开发先进的统一音视频架构至关重要,需要高质量的传感器数据仿真。NVIDIA 将其 DRIVE Sim 和 Isaac Sim 传感器仿真管道集成到该引擎中,为摄像头、雷达、激光雷达和其他传感器提供逼真的仿真。
加速数字化转型
工厂模拟引擎现已在 Azure Marketplace 上提供,提供 NVIDIA OVX 系统和托管 Omniverse 软件。传感器仿真引擎即将推出。此外,企业可以在优化的 Azure 虚拟机上部署 Omniverse Enterprise,从而进一步简化汽车行业的数字化流程。
NVIDIA 在 Omniverse Cloud 上的新仿真引擎标志着汽车数字化迈出了重要一步,为虚拟工厂规划和自动驾驶汽车开发提供了强大的工具。
AI 革命冲击 Windows 11:NVIDIA 在 RTX GPU 方面的重大飞跃
NVIDIA 正在重塑 Windows 11 的格局,利用 RTX GPU 的强大功能为游戏玩家、创作者和日常 PC 用户的体验带来新的维度。NVIDIA 拥有超过 1 亿台配备 RTX GPU 的 Windows PC 用户群,其最新创新有望将生产力和创造力提升到新的高度。
这些发展的最前沿是在 Omniverse Cloud 上引入了两个新的模拟引擎——虚拟工厂和自动驾驶汽车 (AV) 模拟引擎。这些引擎托管在 Microsoft Azure 上,正在彻底改变汽车行业的产品生命周期,从传统的手动流程过渡到高效的 AI 增强型数字系统。
在一项重大更新中,NVIDIA 的开源软件 TensorRT-LLM 将增强 AI 推理性能。此更新将扩展对新的大型语言模型的支持,使复杂的 AI 工作负载在配备 RTX GPU 的台式机和笔记本电脑上更易于访问,起始容量为 8GB。这一增强功能改变了游戏规则,尤其是即将推出的 TensorRT-LLM for Windows 与 OpenAI 的聊天 API 的兼容性。这种集成意味着许多开发人员项目和应用程序现在可以在 RTX PC 上本地运行,允许用户将敏感数据安全地保存在他们的 Windows 11 PC 上,远离云端。
NVIDIA 还推出了 AI Workbench,这是一个全面的工具包,旨在简化创作者的开发流程。该平台简化了预训练生成式 AI 模型和 LLM 的创建、测试和定制,使开发人员能够有效地管理其 AI 项目并针对特定用例定制模型。
NVIDIA 与 Microsoft 合作,正在增强 DirectML,有望加速 Llama 2 等基础 AI 模型。这种合作拓宽了跨供应商部署的范围,并在性能标准方面树立了新的基准。
即将发布的 TensorRT-LLM v0.6.0 是又一次飞跃,有望将推理性能提高多达 5 倍。它还将支持其他流行的LLM,包括Mistral 7B和Nemotron-3 8B。这些型号将在配备 8GB RAM 或更大 RAM 的 GeForce RTX 30 和 40 系列 GPU 上访问,即使在最便携的 Windows 设备上也能使用高级 AI 功能。
为了支持这些进步, NVIDIA 正在其 GitHub 存储库和 ngc.nvidia.com 上提供新版本的 TensorRT-LLM 和优化模型。
通过这些创新,NVIDIA 不仅增强了其庞大用户群的 PC 体验;它为 Windows 11 上 AI 增强计算的新时代铺平了道路,标志着技术与日常生活交汇的关键时刻。