谷歌终于开窍了。
在刚刚结束的Google Cloud Next 2026大会上,谷歌发布了第八代TPU——但这次不一样了,他们把训练和推理拆成了两颗独立的芯片:TPU 8t负责训练,TPU 8i负责推理。这听起来像是”为了拆而拆”的营销把戏,但仔细想想,谷歌这次的逻辑还真站得住脚。

为什么非拆不可?
以前的TPU就像是个全能运动员,既能训练又能推理,看起来挺美好。但问题是,训练和推理对硬件的要求根本不是一回事。训练需要的是大规模计算吞吐量,把模型从零训练到能用的状态,算力密度是王道;而推理需要的是低延迟和高内存带宽,用户问你一个问题,你得秒回,不能让人等半天。
用一个芯片干两件事,就像让举重运动员同时跑马拉松——能跑,但肯定跑不快。
谷歌这次的拆分思路是:TPU 8t专注于”练肌肉”,单节点可集成9600块芯片,计算性能比上一代提升约3倍;TPU 8i专注于”秀肌肉”,集成384MB的SRAM,是上一代的三倍,专门用来降低推理延迟。
这就好比健身房里,有人专门负责举铁增肌,有人专门负责有氧减脂。虽然一个人也能全干,但专业分工显然效率更高。

跟英伟达掰掰手腕
说到底,谷歌这一招就是冲着英伟达去的。
英伟达的GPU目前还是AI芯片的绝对霸主,训练推理一把抓,H100/H200卖得风生水起。谷歌的TPU一直是”自产自销”,主要给自己家的AI服务用。但这次拆分之后,谷歌显然有了更大的野心——如果你是做AI推理的服务商,要不要考虑一下专门为推理优化的TPU 8i?
谷歌还宣布设立7.5亿美元的基金,推动企业采用AI。这招似曾相识——当年云计算大战,各家也是砸钱补贴抢客户。现在AI芯片大战,剧本重演了一遍。
值得一提的是,TPU 8i是谷歌和联发科合作设计的。联发科在手机芯片领域一直主打性价比,这次和谷歌合作,是不是想把”性价比”带入AI推理市场?这事儿挺耐人寻味。

台积电2nm加持,明年量产
两款芯片都采用台积电2nm制程,搭载Arm架构的Axion CPU,支持第四代液冷散热技术。计划在2027年底量产。
2nm啊,听着就烧钱。谷歌这是铁了心要在AI芯片上下血本了。液冷散热技术也说明了一个问题:这些芯片的功耗肯定不低,发热量大的吓人。如果你的数据中心还在用传统风冷,可能真得考虑升级了。
写在最后
谷歌这次TPU拆分的逻辑是通的,但能不能真正撼动英伟达的地位,还得看实际表现和定价。毕竟英伟达的CUDA生态太强势了,很多AI开发者已经习惯了英伟达的一套工具链。谷歌想让人改用TPU,光有硬件还不够,软件生态得跟上。
不过有一点是肯定的:AI芯片市场要热闹了。谷歌、英伟达、AMD、英特尔,再加上各家自研芯片的科技巨头,这场仗才刚刚开始。
至于你问我英伟达慌不慌?我觉得他们应该还没慌。但绝对已经不能躺平了。
声明:博客中如无特殊说明或标注的文章均为博客原创文章,部分文章来源互联网,如有侵犯您的版权,或者对零分博客发布的文章有异议,请来信告知删除、修改,如您有好的建议或者意见也可以来信,谢谢!
固定链接:https://www.hasee.cc/242.html






