蚂蚁集团回应新模型训练成本降低:基于不同芯片持续调优,会逐步开源
2025-03-26 10:56:40 AI 28观看
摘要 3 月 24 日消息,据新浪科技报道,针对有关蚂蚁“百灵”大模型训练成本有关消息,蚂蚁集团回应称,公司针对不同芯片持续调优,以降低 AI 应用成本,目前已经取得一定进展,也将逐步通过开源分享。附事件背景:近日,蚂蚁集团 L

3 月 24 日消息,据新浪科技报道,针对有关蚂蚁“百灵”大模型训练成本有关消息,蚂蚁集团回应称,公司针对不同芯片持续调优,以降低 AI 应用成本,目前已经取得一定进展,也将逐步通过开源分享。wvb28资讯网——每日最新资讯28at.com

附事件背景:wvb28资讯网——每日最新资讯28at.com

近日,蚂蚁集团 Ling 团队在预印版 Arxiv 平台发表技术成果论文《每一个 FLOP 都至关重要:无需高级 GPU 即可扩展 3000 亿参数混合专家 LING 大模型》,宣布推出两款不同规模的 MoE (混合专家)大语言模型 —— 百灵轻量版(Ling-Lite)与百灵增强版(Ling-Plus),并提出一系列创新方法,实现在低性能硬件上高效训练大模型,显著降低成本。wvb28资讯网——每日最新资讯28at.com

百灵轻量版参数规模为 168 亿(激活参数 27.5 亿),增强版基座模型参数规模高达 2900 亿(激活参数 288 亿),性能均达行业领先水平。实验表明,其 3000 亿参数的 MoE 大模型可在使用国产 GPU 的低性能设备上完成高效训练,性能与完全使用英伟达芯片、同规模的稠密模型及 MoE 模型相当。wvb28资讯网——每日最新资讯28at.com

相关阅读:wvb28资讯网——每日最新资讯28at.com

《蚂蚁集团推出两款 MoE 大模型,用国产芯片训练成本显著降低》wvb28资讯网——每日最新资讯28at.com

本文链接:http://www.28at.com/showinfo-45-11660-0.html蚂蚁集团回应新模型训练成本降低:基于不同芯片持续调优,会逐步开源

声明:本网页内容旨在传播知识,不代表本站观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。

显示全文

上一篇:OpenAI 与麻省理工学院联合研究:频繁使用聊天机器人或与孤独感增加相关

下一篇:金山办公:未来 5 年让 AI 改造每个现有产品,包括 WPS 个人版 WPS 365

最新热点