英伟达推出 ProRL 方法:强化学习训练至 2000 步,打造全球最佳 1.5B 推理 AI 模型
2025-06-09 09:36:50 AI 8观看
摘要 6 月 5 日消息,科技媒体 marktechpost 昨日(6 月 4 日)发布博文,报道称英伟达推出 ProRL 强化学习方法,并开发出全球最佳的 1.5B 参数推理模型 Nemotron-Research-Reasoning-Qwen-1.5B。背景简介推理模型是一种专

6 月 5 日消息,科技媒体 marktechpost 昨日(6 月 4 日)发布博文,报道称英伟达推出 ProRL 强化学习方法,并开发出全球最佳的 1.5B 参数推理模型 Nemotron-Research-Reasoning-Qwen-1.5B。U9r28资讯网——每日最新资讯28at.com

背景简介U9r28资讯网——每日最新资讯28at.com

推理模型是一种专门的人工智能系统,通过详细的长链推理(Chain of Thought,CoT)过程生成最终答案。U9r28资讯网——每日最新资讯28at.com

强化学习(Reinforcement Learning,RL)在训练中扮演非常重要的角色,DeepSeek 和 Kimi 等团队采用可验证奖励的强化学习(RLVR)方法,推广了 GRPO、Mirror Descent 和 RLOO 等算法。U9r28资讯网——每日最新资讯28at.com

然而,研究者仍在争论强化学习是否真正提升大型语言模型(LLM)的推理能力。现有数据表明,RLVR 在 pass@k 指标上未能显著优于基础模型,显示推理能力扩展受限。U9r28资讯网——每日最新资讯28at.com

此外,当前研究多集中于数学等特定领域,模型常被过度训练,限制了探索潜力;同时,训练步数通常仅数百步,未能让模型充分发展新能力。U9r28资讯网——每日最新资讯28at.com

ProRL 方法的突破与应用U9r28资讯网——每日最新资讯28at.com

英伟达研究团队为解决上述问题,推出 ProRL 方法,延长强化学习训练时间至超过 2000 步,并将训练数据扩展至数学、编程、STEM、逻辑谜题和指令遵循等多个领域,涵盖 13.6 万个样本。U9r28资讯网——每日最新资讯28at.com

U9r28资讯网——每日最新资讯28at.com

他们采用 verl 框架和改进的 GRPO 方法,开发出 Nemotron-Research-Reasoning-Qwen-1.5B 模型。U9r28资讯网——每日最新资讯28at.com

这是全球最佳的 1.5B 参数推理模型,在多项基准测试中超越基础模型 DeepSeek-R1-1.5B,甚至优于更大的 DeepSeek-R1-7B。U9r28资讯网——每日最新资讯28at.com

U9r28资讯网——每日最新资讯28at.com

测试结果显示,该模型在数学领域平均提升 15.7%,编程任务 pass@1 准确率提升 14.4%,STEM 推理和指令遵循分别提升 25.9% 和 22.0%,逻辑谜题奖励值提升 54.8%,展现出强大的泛化能力。U9r28资讯网——每日最新资讯28at.com

附上参考地址U9r28资讯网——每日最新资讯28at.com

ProRL: Prolonged Reinforcement Learning Expands Reasoning Boundaries in Large Language ModelsU9r28资讯网——每日最新资讯28at.com

huggingfaceU9r28资讯网——每日最新资讯28at.com

本文链接:http://www.28at.com/showinfo-45-13540-0.html英伟达推出 ProRL 方法:强化学习训练至 2000 步,打造全球最佳 1.5B 推理 AI 模型

声明:本网页内容旨在传播知识,不代表本站观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。

显示全文

上一篇:亚马逊的神秘 Lab126 部门组建新机器人团队,进军“物理 AI”

下一篇:6月8日短剧付费热度揭秘:大盘破5430万,《十八岁太奶奶》蝉联冠军

最新热点