返回AI资讯
TechCrunch AIAI资讯

Google新一代TPU亮相:更快更便宜,但为何仍要"拥抱"Nvidia?

2026/04/22 18:39

当Google在2016年首次推出TPU时,整个AI圈都为之一振——终于有公司能打破Nvidia的GPU霸权了。十年过去,Google并没有像外界猜测那样完全摆脱Nvidia,反而在新一代TPU发布时公开"示好",这背后的逻辑值得玩味。

先看技术层面。这次推出的两款新TPU显然是有备而来。Google强调"faster and cheaper",这不仅仅是性能提升,更是一次精准的成本控制。在当前AI算力需求爆发式增长的大背景下,算力成本已经成为AI公司能否盈利的关键变量。Google很清楚,仅靠性能优势不足以撼动Nvidia的市场地位,必须在性价比上打出差异化。

但更值得关注的是Google的战略姿态。CEO皮查伊在发布会上明确表示:"我们仍然拥抱Nvidia。"这句话信息量巨大。.Google心知肚明,TPU虽然在自己的生态系统内所向披靡,但整个AI行业已经形成了对Nvidia CUDA生态的深度依赖。从TensorFlow到PyTorch,从初创公司到巨头企业,无数开发者的代码、模型、工具都是围绕Nvidia的架构构建的。要让整个行业转向TPU,代价太高、时间太久。

所以Google选择了一条更务实的路线:双轨并行。一方面用自研TPU满足内部需求(搜索、广告、Pixel手机等核心业务),降低成本;另一方面继续在Google Cloud上提供Nvidia实例,让客户自己选择。这种"脚踏两条船"的策略,本质上是一种防御性进攻——我不跟你全面竞争,但我也不放弃自己的技术储备。

对行业来说,这意味着什么?Nvidia的护城河依然坚固。AMD虽然近年来奋起直追,但在软件生态和开发者习惯面前仍显稚嫩。Google的TPU再强,也只是Google的TPU。真正能威胁Nvidia的,从来不是某一款更快的芯片,而是整个计算范式的颠覆——比如量子计算、 neuromorphic computing(神经形态计算),或者全新的AI架构。

对于正在选型的企业和开发者,我的建议是:别被"更快更便宜"的宣传冲昏头脑。如果是Google生态内的应用(比如用TensorFlow做大规模训练),新TPU确实是香饽饽;但如果你的团队已经深度绑定了CUDA生态,跳槽的成本远高于省下的那点算力费用。AI芯片市场远未定局,保持灵活性才是明智之举。

来源 TechCrunch AI

阅读原文