Meta 推 LlamaRL 强化学习框架:全异步分布设计,训练 AI 模型提速 10.7 倍
2025-06-13 11:29:16 AI 2观看
摘要 6 月 11 日消息,科技媒体 marktechpost 昨日(6 月 10 日)发布博文,报道称 Meta 公司推出 LlamaRL 框架,采用全异步分布式设计,在 405B 参数模型上,LlamaRL 将强化学习步骤时间从 635.8 秒缩短至 59.5 秒,速度提升 10.

6 月 11 日消息,科技媒体 marktechpost 昨日(6 月 10 日)发布博文,报道称 Meta 公司推出 LlamaRL 框架,采用全异步分布式设计,在 405B 参数模型上,LlamaRL 将强化学习步骤时间从 635.8 秒缩短至 59.5 秒,速度提升 10.7 倍。89Z28资讯网——每日最新资讯28at.com

注:强化学习(Reinforcement Learning,RL)通过基于反馈调整输出,让模型更贴合用户需求。随着对模型精准性和规则适配性的要求不断提高,强化学习在训练后阶段的重要性日益凸显,持续优化模型性能,成为许多先进大语言模型系统的关键组成部分。89Z28资讯网——每日最新资讯28at.com

将强化学习应用于大语言模型,最大障碍在于资源需求。训练涉及海量计算和多组件协调,如策略模型、奖励评分器等。模型参数高达数百亿,内存使用、数据通信延迟和 GPU 闲置等问题困扰着工程师。89Z28资讯网——每日最新资讯28at.com

Meta 推出的 LlamaRL 框架,采用 PyTorch 构建全异步分布式系统,简化协调并支持模块化定制。通过独立执行器并行处理生成、训练和奖励模型,LlamaRL 大幅减少等待时间,提升效率。89Z28资讯网——每日最新资讯28at.com

89Z28资讯网——每日最新资讯28at.com

LlamaRL 通过分布式直接内存访问(DDMA)和 NVIDIA NVLink 技术,实现 405B 参数模型权重同步仅需 2 秒。89Z28资讯网——每日最新资讯28at.com

在实际测试中,LlamaRL 在 8B、70B 和 405B 模型上分别将训练时间缩短至 8.90 秒、20.67 秒和 59.5 秒,速度提升最高达 10.7 倍。89Z28资讯网——每日最新资讯28at.com

89Z28资讯网——每日最新资讯28at.com

MATH 和 GSM8K 基准测试显示,其性能稳定甚至略有提升。LlamaRL 有效解决内存限制和 GPU 效率问题,为训练大语言模型开辟了可扩展路径。89Z28资讯网——每日最新资讯28at.com

本文链接:http://www.28at.com/showinfo-45-13679-0.htmlMeta 推 LlamaRL 强化学习框架:全异步分布设计,训练 AI 模型提速 10.7 倍

声明:本网页内容旨在传播知识,不代表本站观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。

显示全文

上一篇:苹果 iOS 26 升级快捷指令:扩展引入 Apple 智能,AI 改变用户日常体验

下一篇:上线仅 1 周,Anthropic 终止 AI 博客 Claude Explains 项目

最新热点