微软开源 bitnet.cpp 1-bit LLM 推理框架:不靠 GPU 可本地运行千亿参数 AI 模型,能耗最多降低 82.2%
2024-10-23 09:22:01 AI 34观看
摘要 10 月 19 日消息,科技媒体 marktechpost 昨日(10 月 18 日)发布博文,报道称微软公司开源了 bitnet.cpp,这是一个能够直接在 CPU 上运行、超高效的 1-bit 大语言模型(LLM)推理框架。用户通过 bitnet.cpp 框架,不需要借

10 月 19 日消息,科技媒体 marktechpost 昨日(10 月 18 日)发布博文,报道称微软公司开源了 bitnet.cpp,这是一个能够直接在 CPU 上运行、超高效的 1-bit 大语言模型(LLM)推理框架。jKu28资讯网——每日最新资讯28at.com

用户通过 bitnet.cpp 框架,不需要借助 GPU,也能在本地设备上运行具有 1000 亿参数的大语言模型,实现 6.17 倍的速度提升,且能耗可以降低 82.2%。jKu28资讯网——每日最新资讯28at.com

传统大语言模型通常需要庞大的 GPU 基础设施和大量电力,导致部署和维护成本高昂,而小型企业和个人用户因缺乏先进硬件而难以接触这些技术,而 bitnet.cpp 框架通过降低硬件要求,吸引更多用户以更低的成本使用 AI 技术。jKu28资讯网——每日最新资讯28at.com

bitnet.cpp 支持 1-bit LLMs 的高效计算,包含优化内核以最大化 CPU 推理性能,且当前支持 ARM 和 x86 CPU,未来计划扩展至 NPU、GPU 和移动设备。jKu28资讯网——每日最新资讯28at.com

根据初步测试结果,在 ARM CPU 上加速比为 1.37x 至 5.07x,x86 CPU 上为 2.37x 至 6.17x,能耗减少 55.4% 至 82.2%。jKu28资讯网——每日最新资讯28at.com

jKu28资讯网——每日最新资讯28at.com

jKu28资讯网——每日最新资讯28at.com

bitnet.cpp 的推出,可能重塑 LLMs 的计算范式,减少对硬件依赖,为本地 LLMs(LLLMs)铺平道路。jKu28资讯网——每日最新资讯28at.com

用户能够在本地运行模型,降低数据发送至外部服务器的需求,增强隐私保护。微软的“1-bit AI Infra”计划也在进一步推动这些模型的工业应用,bitnet.cpp 在这一进程中扮演着重要角色。jKu28资讯网——每日最新资讯28at.com

附上参考地址jKu28资讯网——每日最新资讯28at.com

Microsoft Open-Sources bitnet.cpp: A Super-Efficient 1-bit LLM Inference Framework that Runs Directly on CPUsjKu28资讯网——每日最新资讯28at.com

GitHubjKu28资讯网——每日最新资讯28at.com

本文链接:http://www.28at.com/showinfo-45-9206-0.html微软开源 bitnet.cpp 1-bit LLM 推理框架:不靠 GPU 可本地运行千亿参数 AI 模型,能耗最多降低 82.2%

声明:本网页内容旨在传播知识,不代表本站观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。

显示全文

上一篇:山姆・阿尔特曼眼球扫描加密项目推出 Orb 新品:在 AI 时代验证对象是否为人类

下一篇:谷歌 Gemini Code Assist Enterprise 正式上线,可根据企业内部代码库生成 AI 见解

最新热点