谷歌(GOOGL.O)周三发布了其最新一代AI芯片,并首次将产品线拆分为两个重点方向:训练和推理。
谷歌的张量处理单元(TPU)正逐渐成为英伟达(NVDA.O)芯片的有力竞争对手,后者仍是AI行业中占主导地位的算力基础。Anthropic是TPU的重要客户,而苹果(AAPL.O)也曾使用这些芯片来训练其AI模型。
随着AI竞争重心转向推理,即模型部署后实际运行的过程,谷歌也在相应调整布局。
谷歌全新的TPU 8t专为训练最前沿的大型AI模型设计,而TPU 8i则面向推理场景。谷歌表示,这两款芯片都将在今年晚些时候推出。
这一拆分反映出整个行业正在发生的转变。随着模型质量不断提升、领先实验室之间差距缩小,行业关注点正转向运行在模型之上的智能体和应用,这些场景对算力的需求更高。这也将AI的经济重心从模型本身上移至推理层。
英伟达同样在为推理需求爆发做准备。去年年底,公司与推理芯片制造商Groq达成了一项价值200亿美元的授权协议,并在上个月发布了一款专为更快推理设计的新芯片。
谷歌表示,其两款新芯片相比去年推出的第七代Ironwood TPU均实现显著跃升。其中,新款8i推理芯片在高带宽内存(HBM)方面实现大幅提升。谷歌称,这解决了“内存墙”问题——即处理器计算速度与获取所需数据速度之间的差距。而对于运行智能体而言,这一点尤为关键。
在与记者的交流中,谷歌云首席执行官托马斯·库里安(Thomas Kurian)将推出两款新芯片的决定称为“自然演进”。
库里安还表示,这些新芯片在设计时注重功耗效率,“因为我们认为随着训练和推理规模的持续扩大,能效将成为约束因素”。
这同样体现出谷歌押注智能体将成为AI的下一个重大突破。
“AI正从回答问题进化为推理并执行行动,”谷歌基础设施负责人阿明·瓦赫达特(Amin Vahdat)和马克·洛迈耶(Mark Lohmeyer)在宣布新芯片的博客文章中表示。
谷歌、亚马逊(AMZN.O)和微软(MSFT.O)一直在竞相开发自研芯片,以减少对英伟达的依赖。同时,这些公司仍依赖英伟达,要么用于训练模型,要么通过其数据中心向客户出租英伟达芯片。
谷歌一直使用自研TPU芯片训练其Gemini模型,但同时也通过谷歌云向客户提供英伟达芯片的使用权限。谷歌表示,今年晚些时候将向客户提供英伟达下一代Vera Rubin GPU的访问。
谷歌在自研芯片领域已投入超过十年,但在过去几年中明显加大了内部投入力度,以吸引更多客户。例如,公司已开放对PyTorch等工具的支持,从而降低企业采用TPU的门槛。
这可能帮助谷歌逐步削弱英伟达的主导地位,同时提升自身业绩。摩根士丹利(MS.N)在12月的一份报告中表示,到2027年,若TPU芯片销量达到50万颗,预计将为谷歌带来约130亿美元的收入增长。