Place your ads here email us at info@blockchain.news
NEW
NVIDIA Run:ai 增强 AWS 上的 AI 模型编排 - Blockchain.News

NVIDIA Run:ai 增强 AWS 上的 AI 模型编排

realtime news Jul 15, 2025 18:51

AWS Marketplace 上的 NVIDIA Run:ai 提供了一种简化的 GPU 基础设施管理方法,适用于 AI 工作负载,并与关键的 AWS 服务集成以优化性能。

NVIDIA Run:ai 增强 AWS 上的 AI 模型编排

NVIDIA 宣布其 Run:ai 平台在 AWS Marketplace 上正式开放,旨在革新 AI 模型的 GPU 基础设施管理。根据NVIDIA的说法,这一集成使组织能够简化其 AI 基础设施管理,确保 AI 工作负载的高效和可扩展部署。

高效 GPU 编排的挑战

随着 AI 工作负载的复杂性增加,对动态和强大 GPU 访问的需求急剧增加。然而,传统的 Kubernetes 环境存在局限性,如 GPU 利用率低效和缺乏工作负载优先级。NVIDIA 的 Run:ai 通过引入虚拟 GPU 池解决了这些问题,增强了 AI 工作负载的编排。

NVIDIA Run:ai:全面解决方案

Run:ai 平台提供了几个关键功能,包括 GPU 分数分配、动态调度和工作负载感知编排。这些功能使组织能够有效分配 GPU 资源,确保 AI 模型获得必要的计算能力而不浪费。基于团队的配额和多租户管理进一步增强了资源管理和成本效率。

与 AWS 生态系统的集成

NVIDIA Run:ai 无缝集成了 AWS 服务,如 Amazon EC2、Amazon EKS 和 Amazon SageMaker HyperPod。此集成优化了 GPU 利用率并简化了跨云环境的 AI 工作负载编排。此外,平台兼容 AWS IAM 可确保 AI 基础设施的安全访问控制和合规性。

监控和安全增强

为了实现实时可观测性,NVIDIA Run:ai 可以与 Amazon CloudWatch 集成,提供自定义指标、仪表盘和警报以监控 GPU 消耗。此集成提供可操作的见解,有助于资源消耗优化和确保有效的 AI 模型执行。

实际应用及收益

考虑到一个企业 AI 平台需要为多个团队提供保证的 GPU 访问权限。NVIDIA Run:ai 的编排能力实现了动态调度和高效的资源分配,确保团队可以不受干扰地运行。此设置不仅加速了 AI 开发,还通过减少未充分利用的 GPU 资源优化预算使用。

随着企业持续扩大其 AI 运营,NVIDIA Run:ai 为管理 GPU 基础设施提供了一个强大的解决方案,促进创新并保持成本效益。有关部署 NVIDIA Run:ai 的更多信息,请访问 AWS Marketplace。

Image source: Shutterstock
Place your ads here email us at info@blockchain.news