NVIDIA 的 NeMo 框架使推理能力的语言模型在周末就能完成训练
realtime news Jul 22, 2025 18:52
NVIDIA 引入了一种高效的方法,通过 NeMo 框架,利用 Llama Nemotron 数据集和 LoRA 适配器,在周末训练推理能力的语言模型。

NVIDIA 公布了一种突破性的方法,可以使用其 NeMo 框架和 Llama Nemotron 数据集,在周末内训练具有推理能力的语言模型。根据 NVIDIA 开发者博客,这一创新过程使开发者能够在大约 48 小时内在单个 GPU 上构建有效的推理模型。
推理模型的革命
推理语言模型的出现标志着 AI 能力的重大转变,特别是在要求批判性思维的任务中,例如数学和编码。NVIDIA 的 Llama Nemotron 模型专为高性能推理设计,是这一变革的前沿,提供动态推理模式,可以在标准聊天和高级推理之间切换,从而优化复杂任务的资源使用。
使用开放数据集赋能开发者
NVIDIA 已开放源代码,发布了其 Llama Nemotron 后训练数据集的大部分,涵盖数学、编码和科学等领域的 3200 多万个样本。对于希望训练出具备类似 Llama Nemotron 功能的模型的开发者,这一数据集至关重要。
训练方法
训练过程包括数据策划、微调和评估。建议开发者策划关注推理的子集数据集,并使用至少 80 亿参数的模型进行有效训练。该过程还强调使用参数高效微调(PEFT)和 LoRA 适配器,使训练可以在单个 NVIDIA H100 GPU 上进行。
评估和结果
训练后,模型使用 MMLU 和 GPQA 等标准基准进行评估。NVIDIA 报告称,其训练的 LoRA 适配器在多个基准上表现优于基础指令模型,在推理任务中表现出显著改进。
这一方法不仅简化了训练过程,还使强大的 AI 工具更接近开发者,使他们能够创建具有增强推理能力的领域特定模型。
Image source: Shutterstock