摘要近日,在美国举行的云端大会上,Google展示了第七代TPU芯片Ironwood,并分享了其在芯片设计和云端基础设施领域的最新进展。据Google DeepMind/Google Research首席科学家Jeff Dean透露,AI推论需求的增长正推动芯片技术的革新
近日,在美国举行的云端大会上,Google展示了第七代TPU芯片Ironwood,并分享了其在芯片设计和云端基础设施领域的最新进展。据Google DeepMind/Google Research首席科学家Jeff Dean透露,AI推论需求的增长正推动芯片技术的革新,而芯片设计自动化与能源效率优化成为重要方向。
Google是美系云端大厂中较早投入自研芯片的企业之一,其TPU芯片专为AI和机器学习加速设计,至今已有超过10年的发展历史。随后,亚马逊、微软、Meta等公司也陆续加入定制芯片开发行列,旨在减少对NVIDIA等传统芯片供应商的依赖。数据显示,TPU已驱动了Google旗下多个知名AI模型的训练与应用,包括多模态模型Gemini、AlphaFold、AlphaGo/Zero等。
Jeff Dean强调,AI推论的效率与模型的普及程度密切相关。尽管训练大模型需要耗费大量资源,但推论阶段的运算优化可显著提升模型质量。此外,为了在低算力环境及移动设备上部署超大模型,模型压缩技术如蒸馏和量化变得尤为重要。
芯片设计周期长是另一大挑战。Jeff Dean指出,团队正努力通过AI工具加速设计流程,将开发时间从2年缩短至6~9个月,同时减少人力需求。芯片的能源效率优化也被视为未来发展的关键领域。
针对AI应用前景,Jeff Dean特别看好医疗与教育领域的潜力,尤其是AI在个性化教育中的应用。与此同时,Google的TPU芯片迭代也带动了周边系统的升级,包括芯片间通讯、数据中心网络架构等。第七代TPU Ironwood的算力表现已达到第一代的3600倍以上,最大可串联9216颗芯片。
本文链接:http://www.28at.com/showinfo-27-144934-0.htmlGoogle自研芯片TPU算力提升3600倍
声明:本网页内容旨在传播知识,不代表本站观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。