NVIDIA 引入代理 AI 系统的安全措施

realtime news   Jul 18, 2025 12:05  UTC 04:05

1 Min Read

由于对大型语言模型(LLM)在代理系统中的依赖日益增加,NVIDIA 引入了一个强大的安全框架,旨在解决与自主 AI 应用相关的多种风险。根据NVIDIA的说法,这个被称为 AI 安全方案的框架旨在加强 AI 系统,防范目标不对齐、提示注入和人类监督减少等问题。

理解 AI 安全的必要性

随着企业越来越多地部署 LLMs,以其灵活性和成本效益,应对相关风险的需求变得尤为重要。提示注入攻击、数据泄露和其他安全漏洞的潜在风险要求对 AI 安全采取全面的方法。NVIDIA 的安全方案提供了一种结构化的方法,以增强内容审核、安全性和系统的整体弹性。

AI 安全方案的组成部分

NVIDIA 的安全方案包含多个关键组件,以确保 AI 系统既可信赖,又符合企业和法规标准。这些组件包括:

  • 评估技术:用于测试和衡量 AI 模型是否符合业务政策和风险阈值的工具。
  • 端到端 AI安全软件堆栈:核心组件,支持在整个 AI 生命周期中持续监控和实施安全政策。
  • 可信数据合规性:可访问开源许可证的数据集,以构建透明且可靠的 AI 系统。
  • 风险缓解策略:用于解决内容审核和安全性的技术,防止提示注入攻击并确保内容完整性。

实施和效益

AI 安全方案设计为可在 AI 生命周期的各个阶段实施,从构建阶段的模型评估和校准到部署过程中的持续安全检查。使用 NVIDIA 的 NeMo 框架和其他工具,组织能应用最先进的后训练技术,加强 AI 系统以抵御对抗性提示和越狱尝试。

通过采用这一安全框架,企业可以提高其 AI 系统的内容安全性和产品安全性,NVIDIA 报告称内容安全性提高了 6%,安全弹性提高了 7%。

行业采用和影响

领先的网络安全和 AI 安全公司已经开始将 NVIDIA 的安全构件整合到他们的产品中。例如,Active Fence 使用 NVIDIA 的防护措施实现实时 AI 互动安全,而 Cisco AI Defense 和 CrowdStrike Falcon Cloud Security 则采用 NeMo 的生命周期学习以增强模型安全性。

这些整合展示了业界对安全运营开放模型的承诺,确保企业能够负责任且有效地利用代理 AI 技术。



Read More