CoreWeave 推出 NVIDIA Blackwell 云实例以提升 AI 性能
realtime news Feb 05, 2025 02:17
CoreWeave 推出了基于 NVIDIA GB200 NVL72 的实例,标志着 NVIDIA Blackwell 首次在云端实现全面可用,提供前所未有的 AI 性能和可扩展性。

在云计算和人工智能领域取得重大进展,CoreWeave 宣布基于 NVIDIA GB200 NVL72 的实例已全面可用,使其成为首家向广泛受众提供 NVIDIA Blackwell 平台的云服务提供商。根据 CoreWeave 最近的公告,此次发布预计将推动高级 AI 模型的部署达到前所未有的规模。
CoreWeave 上的 NVIDIA GB200 NVL72
NVIDIA GB200 NVL72 平台是一个尖端的液冷机架级解决方案,具有 72 GPU NVLink 域。此配置允许 GPU 作为一个单一的大型单元运作,显著提升计算能力。该平台整合了多个技术突破,如第五代 NVLink,提供 130TB/s 的 GPU 带宽,以及支持 FP4 的第二代 Transformer 引擎,实现更快的 AI 性能而不牺牲精度。
CoreWeave 的云服务专为 Blackwell 优化,提供诸如 CoreWeave Kubernetes 服务,以确保有效的工作负载调度,以及 Slurm on Kubernetes (SUNK) 智能工作负载分配。此外,CoreWeave 的可观测性平台提供对 NVLink 性能和 GPU 利用率的实时洞察。
面向 AI 的全栈加速计算
NVIDIA 的全栈 AI 平台结合了先进的软件和 Blackwell 驱动的基础设施,为企业提供了开发可扩展 AI 模型和代理所需的工具。关键组件包括用于定制工作流的 NVIDIA Blueprints、用于安全 AI 模型部署的 NVIDIA NIM 以及用于模型训练和定制的 NVIDIA NeMo。这些元素是 NVIDIA AI Enterprise 软件平台的一部分,使企业能够在 CoreWeave 的基础设施上实现可扩展的 AI 解决方案。
云中下一代 AI
在 CoreWeave 推出基于 NVIDIA GB200 NVL72 的实例突显了公司对提供尖端计算解决方案的承诺。此次合作为企业提供了推动下一代 AI 推理模型所需的资源。企业现在可以通过 CoreWeave Kubernetes 服务在 US-WEST-01 地区访问这些高性能实例。
对于那些有兴趣利用这些强大云解决方案的人,可以通过 CoreWeave 的官方渠道探索更多信息和供应选项。
欲获取更详细的信息,请参阅NVIDIA 官方博客。
Image source: Shutterstock