中国电信 AI 研究院完成首个全国产化万卡万参大模型训练,TeleChat2-115B 对外开源
2024-10-01 17:07:26 AI 63观看
摘要 9 月 28 日消息,“中国电信人工智能研究院”官方公众号今天宣布,中国电信人工智能研究院(注:下文称 TeleAI)成功完成国内首个基于全国产化万卡集群训练的万亿参数大模型,并正式对外开源首个基于全国产化万卡集群和

9 月 28 日消息,“中国电信人工智能研究院”官方公众号今天宣布,中国电信人工智能研究院(注:下文称 TeleAI)成功完成国内首个基于全国产化万卡集群训练的万亿参数大模型,并正式对外开源首个基于全国产化万卡集群和国产深度学习框架训练的千亿参数大模型 —— 星辰语义大模型 TeleChat2-115B。uiF28资讯网——每日最新资讯28at.com

uiF28资讯网——每日最新资讯28at.com

官方表示,这项科研成果标志着国产大模型训练真正实现全国产化替代,正式进入全国产自主创新、安全可控的新阶段。uiF28资讯网——每日最新资讯28at.com

TeleChat2-115B 基于中国电信自研的天翼云“息壤一体化智算服务平台”和人工智能公司“星海 AI 平台”训练完成。据介绍,其在保证训练精度的前提下利用多种优化手段提升模型训练效率和稳定性,实现了 GPU 同等算力计算效率超 93% ,模型有效训练时长占比超 98% 。uiF28资讯网——每日最新资讯28at.com

针对超大参数模型训练,TeleAI 采用了大量小模型进行 Scaling,进而验证不同模型结构的有效性。同时,在数据配比方面,基于小模型实验结果反馈,采用回归预测模型,得到较优数据配比。uiF28资讯网——每日最新资讯28at.com

在 Post-Training(后训练)方面,TeleAI 首先针对数学、代码和逻辑推理等内容合成了大量问答数据,用于 SFT(监督式微调)第一阶段模型训练。uiF28资讯网——每日最新资讯28at.com

其次,其采用迭代式更新策略,使用模型对提示词数据进行指令复杂性提升与多样性扩充,通过模型合成和人工标注提升答案质量,并利用拒绝采样获取优质 SFT 数据及 RM(奖励模型)代表性数据,用于 SFT 训练和 DPO(偏好对齐)训练,以及模型效果迭代。uiF28资讯网——每日最新资讯28at.com

附开源地址uiF28资讯网——每日最新资讯28at.com

GitHub:uiF28资讯网——每日最新资讯28at.com

https://github.com/Tele-AI/TeleChat2uiF28资讯网——每日最新资讯28at.com

Gitee:uiF28资讯网——每日最新资讯28at.com

https://gitee.com/Tele-AI/tele-chat2uiF28资讯网——每日最新资讯28at.com

ModelScope:uiF28资讯网——每日最新资讯28at.com

https://modelscope.cn/models/TeleAI/TeleChat2-115BuiF28资讯网——每日最新资讯28at.com

Modelers:uiF28资讯网——每日最新资讯28at.com

https://modelers.cn/models/TeleAI/TeleChat2-115BuiF28资讯网——每日最新资讯28at.com

本文链接:http://www.28at.com/showinfo-45-8018-0.html中国电信 AI 研究院完成首个全国产化万卡万参大模型训练,TeleChat2-115B 对外开源

声明:本网页内容旨在传播知识,不代表本站观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。

显示全文

上一篇:苏黎世联邦理工学院研究:AI 可 100% 绕过谷歌 reCAPTCHA V2 验证

下一篇:OpenAI:计划五年内将 ChatGPT 每月订阅费用提高到最高 44 美元

最新热点