1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载
2024-04-13 16:05:03 AI 169观看
摘要 4 月 11 日消息,Mistral AI 公司近日推出了 Mixtral 8x22B 开源模型,共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,可以通过 Torrent 下载。Mistral AI 公司自成立以来一直备受外界关注,“6 人团

4 月 11 日消息,Mistral AI 公司近日推出了 Mixtral 8x22B 开源模型,共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,可以通过 Torrent 下载。t7y28资讯网——每日最新资讯28at.com

t7y28资讯网——每日最新资讯28at.com

Mistral AI 公司自成立以来一直备受外界关注,“6 人团队,7 页 PPT,8 亿融资”不断缔造传奇,而且在得到微软的投资之后更是进入发展快车道。t7y28资讯网——每日最新资讯28at.com

该公司今天发布的 Mixtral 8x22B 是个开源模型,官方目前放出了 Torrent 种子链接,文件大小为 281GB。用户可以通过磁性链接直接下载,或者通过 HuggingFace 和 Perplexity AI Labs 平台进行下载。附上相关截图如下:t7y28资讯网——每日最新资讯28at.com

t7y28资讯网——每日最新资讯28at.com

t7y28资讯网——每日最新资讯28at.com

Mixtral 8x22B 共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,不过为单一任务可以调用部分模型(440 亿参数),因此使用起来更加灵活。t7y28资讯网——每日最新资讯28at.com

本文链接:http://www.28at.com/showinfo-45-3976-0.html1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载

声明:本网页内容旨在传播知识,不代表本站观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。

显示全文

上一篇:英伟达 H100 AI GPU 短缺缓解,交货时间从 3-4 个月降至 2-3 个月

下一篇:未来产业展望(人民观察)

最新热点