谷歌摊牌:75%新代码AI写,第八代TPU亮剑,老黄该急了
谷歌大会震撼反扑!第八代TPU双芯片出世,自研十年,性能狂飙3倍死磕英伟达。CEO劈柴发文:AI已写75%新代码。
谷歌内部75%新代码,全由AI写!
今天,谷歌Cloud Next2026大会正式拉开帷幕,CEO劈柴一篇长文,掷地有声地宣告:
我们已正式跨入Gemini智能体时代!
要说这次大会真正的「重头戏」,莫过于谷歌祭出了第八代TPU。
它首次采用训练(TPU 8t)与推理(TPU 8i)双芯片,性能狂飙3倍,大幅降低了Agent运行成本。
自研十年,第八代TPU亮剑,正面硬刚英伟达GPU的霸主地位。
除此之外,大会密集发布了多项重磅产品——
Workspace Intelligence、「Gemini企业级Agent平台」、AI应用保护平台AI-APP,以及升级Workspace与Gemini深度集成。
劈柴称,谷歌正以一种近乎「恐怖」的增长曲线,重塑全球算力极限。
Gemini每分钟处理Token数从100亿狂飙至惊人的160亿;35个顶尖大客户,迈入「10万亿级」俱乐部。
而且,内部75%新代码由AI编写,多Agent协作系统让代码迁移提速6倍。
如今,硅谷「御三家」谷歌、OpenAI、Anthropic,正展开一场全栈式的巅峰对决。
第八代TPU登场,性能狂飙3倍
第八代TPU,是面向Agent时代「两款芯片」,也是谷歌十年磨一剑的最新战果,
这一次,谷歌首次决定把TPU一分为二——
TPU 8t专攻训练,TPU 8i专攻推理。
可以说,第八代TPU的出世,训练+推理双线出击,直指英伟达腹地。
网友还为此做了一张,英伟达GPU和谷歌TPU,对战的全貌局势图。
TPU 8t:训练野兽
TPU 8t在吞吐量和扩展性上进行了疯狂「堆料」,可以将LLM开发时间从数月,缩短至数周!
它在每个Pod的计算性能,几乎是上一代Ironwood的3倍。
单个TPU 8t Superpod可扩展至9600个芯片,提供高达121 ExaFlops的算力。
通过全新的Virgo网络架构,搭配JAX和Pathways软件栈,它甚至能实现「百万级」TPU集群的近线性扩展。
谷歌还将其「有效算力时间」优化至97%以上,确保了昂贵的算力不会浪费在系统故障或重启中。
TPU 8i:推理引擎
另一款TPU 8i,是专为处理多个专业Agent之间复杂、协作和迭代的工作而设计。
TPU 8i可在单个Pod中,连接 1,152 个 TPU,可以实现巨大的吞吐量和低延迟。
在这款芯片设计中,通过四项关键创新,谷歌彻底消除了多Agent「排队等待」效应:
打破「内存墙」
扩展 MoE 模型
Axion驱动的高效能
消除延迟
针对芯片设计,TPU 8i采用了分层 Boardfly 拓扑结构。
它由四个全连接芯片组成的基础构建块,向上发展为八个主板的全连接组,其中36个组再全连接成一个TPU 8i pod。
针对延迟极其敏感的推理场景,它重点突破了「内存墙」限制。
TPU 8i还配备了288GB的高带宽内存,以及3倍于前代的片上SRAM,让模型的工作集能完全驻留在芯片内。
这种设计完美契合了当前「推理侧规模化」的需求,尤其是当多个Agent协同工作、进行复杂逻辑推理时,TPU 8i性价比(每美元性能)提升了高达 80%。
更重要的是,第八代TPU全面整合Axion Arm CPU,通过「芯片+主机+液冷+网络」的全栈垂直整合,实现了每瓦特性能翻倍。
不得不说,谷歌在「用TPU堆算力」这件事上,十年磨一剑,确实越磨越锋利。
75%谷歌新代码,全是AI写的
芯片只是底座,劈柴甩出的另一个数字,才真正让全网为之震惊——
谷歌内部75%的新代码,现在由AI生成,工程师审核通过。
去年秋天这个数字还是50%,半年时间,暴涨了25%。U1S1,比起Anthropic 100%代码AI写,谷歌还是差了些。
而且,谷歌内部已不满足于「AI辅助写代码」了。
他们开始搞全自主的Agent工作流——工程师不再是写代码的人,而是「指挥Agent军团」的人。
一个典型案例:一个特别复杂的代码迁移项目,Agent+工程师协作完成的速度,是一年前纯人工的6倍。
更狠的是,Gemini Mac版应用的初始版本,是用谷歌内部的Agentic开发平台Antigravity搭建的。
从idea到原生Swift原型,只用了几天。
更有趣的是,谷歌内部还出现了一种新的阶层分化:能用 Claude的人,和不能用Claude的人。
通常来说,谷歌员工严禁使用非自己的AI工具。
没想到,谷歌DeepMind竟给部分员工「开绿灯」,允许使用Claude编程。
这一反常举动引发了内部恐慌:不少工程师私下坦言,在编程表现上,Gemini确实逊色于Claude。
而此时,谷歌正加码推进全员AI化,并将AI工具的日常应用与KPI深度挂钩。
Workspace接入AI脑,解放打工人
在办公方面,谷歌正式发布了Workspace Intelligence——
一个横跨Gmail、Docs、Sheets、Slides、Drive、Chat全线产品的AI「超级大脑」。
一句话搞定一切,Chat变指挥中心
最让人眼前一亮的,是Ask Gemini in Chat。
谷歌把Google Chat重新定义为「工作的统一命令行」。
不需要打开十个标签页,不需要在邮件和文档之间反复跳转。直接在Chat里说出目标,Gemini在后台跨应用调度,把成品直接丢回聊天窗口。
每天早上打开Chat,AI会给你一份每日简报:今天最重要的任务、未读的关键对话、需要立即行动的事项。
它还能帮你找会议时间、生成文档和PPT、用一句话描述就能定位任意文件。
办公全家桶,AI替你打工
Workspace Intelligence真正秀肌肉的战场,那便是「办公全家桶」了
Sheets:张嘴建表,全自动
谷歌宣称Gemini in Sheets已经达到了业界最佳基准。
仅用自然语言描述需求,它能从邮件、聊天、文件甚至网页里抓取数据,端到端完成一张复杂电子表格的构建。
从数据整合到可视化,一条龙。
Docs:不止写文章,还能改文档、生成配图
现在Gemini in Docs不仅能写,还能自动处理文档里的评论:读懂同事的反馈,直接修改文档。
更重磅的是,它能基于业务数据生成信息图,一次编辑多张图片保持视觉一致性。
Slides:一句话,一套完整PPT
这个功能简直让所有打工人泪目。
Gemini利用Workspace Intelligence的上下文,严格遵循模板和视觉风格,一次性生成完整的、可编辑的PPT。
这直接把「做PPT」这件事的痛苦指数砍掉了90%。
此外,Gmail还迎来了「AI收件箱」,自动提炼邮件重点;「Drive Projects」让知识库成为活水,终结了「找文件」的噩梦。
每分钟160亿Token,企业级「龙虾」平台来了
Cloud Next大会,谷歌还公开了一系列令人震惊的数据,和企业级重磅新品。
Gemini Enterprise的势头在疯狂拉升——
Q1付费月活环比增长40%,API每分钟处理的token量从上季度的100亿飙升到160亿。
会上,谷歌还宣布了Gemini Enterprise Agent Platform,一个给企业管理成千上万个Agent的「任务控制中心」。
这是Vertex AI的重大进化,提供了一套完整的构建、扩展、治理与优化方案。
它集成了全球200+顶尖AI,包括Claude、Gemini 3.1 Pro等。
还引入了Memory Bank,让Agent拥有持久的长效记忆,跨越数天处理复杂任务而不丢失上下文。
硅谷的牌桌上,底牌正在摊开。
OpenAI手握ChatGPT的十亿级用户池,疯狂向企业端渗透;Anthropic凭Claude的代码能力,悄悄蚕食开发者心智。
而谷歌,选择了一条最重、最慢、也最难被复制的路:
从芯片到模型,从办公套件到Agent平台,全栈自研,垂直整合。
这一局,才刚刚开始。
参考资料:
https://x.com/Google/status/2046993420841865508?s=20
https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/eighth-generation-tpu-agentic-era/
https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/cloud-next-2026-sundar-pichai/
本文来自微信公众号“新智元”,作者:新智元,36氪经授权发布。















