谷歌摊牌:75%新代码AI写,第八代TPU亮剑,老黄该急了

新智元·2026年04月23日 16:09
TPU劈成两半,训推双杀

谷歌大会震撼反扑!第八代TPU双芯片出世,自研十年,性能狂飙3倍死磕英伟达。CEO劈柴发文:AI已写75%新代码。

谷歌内部75%新代码,全由AI写!

今天,谷歌Cloud Next2026大会正式拉开帷幕,CEO劈柴一篇长文,掷地有声地宣告:

我们已正式跨入Gemini智能体时代!

要说这次大会真正的「重头戏」,莫过于谷歌祭出了第八代TPU。

它首次采用训练(TPU 8t)与推理(TPU 8i)双芯片,性能狂飙3倍,大幅降低了Agent运行成本。

自研十年,第八代TPU亮剑,正面硬刚英伟达GPU的霸主地位。

除此之外,大会密集发布了多项重磅产品——

Workspace Intelligence、「Gemini企业级Agent平台」、AI应用保护平台AI-APP,以及升级Workspace与Gemini深度集成。

劈柴称,谷歌正以一种近乎「恐怖」的增长曲线,重塑全球算力极限。

Gemini每分钟处理Token数从100亿狂飙至惊人的160亿;35个顶尖大客户,迈入「10万亿级」俱乐部。

而且,内部75%新代码由AI编写,多Agent协作系统让代码迁移提速6倍。

如今,硅谷「御三家」谷歌、OpenAI、Anthropic,正展开一场全栈式的巅峰对决。

第八代TPU登场,性能狂飙3倍

第八代TPU,是面向Agent时代「两款芯片」,也是谷歌十年磨一剑的最新战果,

这一次,谷歌首次决定把TPU一分为二——

TPU 8t专攻训练,TPU 8i专攻推理。

可以说,第八代TPU的出世,训练+推理双线出击,直指英伟达腹地。

网友还为此做了一张,英伟达GPU和谷歌TPU,对战的全貌局势图。

TPU 8t:训练野兽

TPU 8t在吞吐量和扩展性上进行了疯狂「堆料」,可以将LLM开发时间从数月,缩短至数周!

它在每个Pod的计算性能,几乎是上一代Ironwood的3倍。

单个TPU 8t Superpod可扩展至9600个芯片,提供高达121 ExaFlops的算力。

通过全新的Virgo网络架构,搭配JAX和Pathways软件栈,它甚至能实现「百万级」TPU集群的近线性扩展。

谷歌还将其「有效算力时间」优化至97%以上,确保了昂贵的算力不会浪费在系统故障或重启中。

TPU 8i:推理引擎

另一款TPU 8i,是专为处理多个专业Agent之间复杂、协作和迭代的工作而设计。

TPU 8i可在单个Pod中,连接 1,152 个 TPU,可以实现巨大的吞吐量和低延迟。

在这款芯片设计中,通过四项关键创新,谷歌彻底消除了多Agent「排队等待」效应:

打破「内存墙」

扩展 MoE 模型

Axion驱动的高效能

消除延迟

针对芯片设计,TPU 8i采用了分层 Boardfly 拓扑结构。

它由四个全连接芯片组成的基础构建块,向上发展为八个主板的全连接组,其中36个组再全连接成一个TPU 8i pod。

针对延迟极其敏感的推理场景,它重点突破了「内存墙」限制。

TPU 8i还配备了288GB的高带宽内存,以及3倍于前代的片上SRAM,让模型的工作集能完全驻留在芯片内。

这种设计完美契合了当前「推理侧规模化」的需求,尤其是当多个Agent协同工作、进行复杂逻辑推理时,TPU 8i性价比(每美元性能)提升了高达 80%。

更重要的是,第八代TPU全面整合Axion Arm CPU,通过「芯片+主机+液冷+网络」的全栈垂直整合,实现了每瓦特性能翻倍。

不得不说,谷歌在「用TPU堆算力」这件事上,十年磨一剑,确实越磨越锋利。

75%谷歌新代码,全是AI写的

芯片只是底座,劈柴甩出的另一个数字,才真正让全网为之震惊——

谷歌内部75%的新代码,现在由AI生成,工程师审核通过。

去年秋天这个数字还是50%,半年时间,暴涨了25%。U1S1,比起Anthropic 100%代码AI写,谷歌还是差了些。

而且,谷歌内部已不满足于「AI辅助写代码」了。

他们开始搞全自主的Agent工作流——工程师不再是写代码的人,而是「指挥Agent军团」的人。

一个典型案例:一个特别复杂的代码迁移项目,Agent+工程师协作完成的速度,是一年前纯人工的6倍。

更狠的是,Gemini Mac版应用的初始版本,是用谷歌内部的Agentic开发平台Antigravity搭建的。

从idea到原生Swift原型,只用了几天。

更有趣的是,谷歌内部还出现了一种新的阶层分化:能用 Claude的人,和不能用Claude的人。

通常来说,谷歌员工严禁使用非自己的AI工具。

没想到,谷歌DeepMind竟给部分员工「开绿灯」,允许使用Claude编程。

这一反常举动引发了内部恐慌:不少工程师私下坦言,在编程表现上,Gemini确实逊色于Claude。

而此时,谷歌正加码推进全员AI化,并将AI工具的日常应用与KPI深度挂钩。

Workspace接入AI脑,解放打工人

在办公方面,谷歌正式发布了Workspace Intelligence——

一个横跨Gmail、Docs、Sheets、Slides、Drive、Chat全线产品的AI「超级大脑」。

一句话搞定一切,Chat变指挥中心

最让人眼前一亮的,是Ask Gemini in Chat。

谷歌把Google Chat重新定义为「工作的统一命令行」。

不需要打开十个标签页,不需要在邮件和文档之间反复跳转。直接在Chat里说出目标,Gemini在后台跨应用调度,把成品直接丢回聊天窗口。

每天早上打开Chat,AI会给你一份每日简报:今天最重要的任务、未读的关键对话、需要立即行动的事项。

它还能帮你找会议时间、生成文档和PPT、用一句话描述就能定位任意文件。

办公全家桶,AI替你打工

Workspace Intelligence真正秀肌肉的战场,那便是「办公全家桶」了

Sheets:张嘴建表,全自动

谷歌宣称Gemini in Sheets已经达到了业界最佳基准。

仅用自然语言描述需求,它能从邮件、聊天、文件甚至网页里抓取数据,端到端完成一张复杂电子表格的构建。

从数据整合到可视化,一条龙。

Docs:不止写文章,还能改文档、生成配图

现在Gemini in Docs不仅能写,还能自动处理文档里的评论:读懂同事的反馈,直接修改文档。

更重磅的是,它能基于业务数据生成信息图,一次编辑多张图片保持视觉一致性。

Slides:一句话,一套完整PPT

这个功能简直让所有打工人泪目。

Gemini利用Workspace Intelligence的上下文,严格遵循模板和视觉风格,一次性生成完整的、可编辑的PPT。

这直接把「做PPT」这件事的痛苦指数砍掉了90%。

此外,Gmail还迎来了「AI收件箱」,自动提炼邮件重点;「Drive Projects」让知识库成为活水,终结了「找文件」的噩梦。

每分钟160亿Token,企业级「龙虾」平台来了

Cloud Next大会,谷歌还公开了一系列令人震惊的数据,和企业级重磅新品。

Gemini Enterprise的势头在疯狂拉升——

Q1付费月活环比增长40%,API每分钟处理的token量从上季度的100亿飙升到160亿。

会上,谷歌还宣布了Gemini Enterprise Agent Platform,一个给企业管理成千上万个Agent的「任务控制中心」。

这是Vertex AI的重大进化,提供了一套完整的构建、扩展、治理与优化方案。

它集成了全球200+顶尖AI,包括Claude、Gemini 3.1 Pro等。

还引入了Memory Bank,让Agent拥有持久的长效记忆,跨越数天处理复杂任务而不丢失上下文。

硅谷的牌桌上,底牌正在摊开。

OpenAI手握ChatGPT的十亿级用户池,疯狂向企业端渗透;Anthropic凭Claude的代码能力,悄悄蚕食开发者心智。

而谷歌,选择了一条最重、最慢、也最难被复制的路:

从芯片到模型,从办公套件到Agent平台,全栈自研,垂直整合。

这一局,才刚刚开始。

参考资料:

https://x.com/Google/status/2046993420841865508?s=20  

https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/eighth-generation-tpu-agentic-era/   

https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/cloud-next-2026-sundar-pichai/ 

本文来自微信公众号“新智元”,作者:新智元,36氪经授权发布。

+1
1

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

OpenAI在ChatGPT里正式上线workspace agents,由Codex驱动,云端7×24运行,能跨数十种工具执行任务。GPTs进入退休倒计时。5月6日前免费体验。

1小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业