Gemini立功了,谷歌AI再次伟大,百度阿里们可以抄作业了?
如果仅看过去这一个月,很难想象这是那个在 2023 年因为 Bard「翻车」而被全球科技圈集体嘲笑的 Google。
上周(11 月 18 日),Google 发布了新一代大模型 Gemini 3,用恐怖的实力碾压了更大模型,基于 Gemini 3 Pro 的 Nano Banana Pro 更是延续了 Google 在 AI 生成图像上的「王座」,也让 OpenAI 更加「焦虑」。
不单如此,Gemini 3 也彻底了扭转「Google 掉队论」,自研 TPU 也被视为英伟达算力霸权的最大变量,Meta 都被传出正评估大规模采购 TPU,直接让英伟达股价下跌近 7%,随后英伟达官方也在 X(原 Twitter)上发文称:
「我们为谷歌取得的成功感到高兴——他们在 AI 领域取得了重大进展,而我们也将继续向谷歌(云)提供产品。」
图片来源:X
与此同时,Anthropic(Claude)在上月也刚宣布了最新一批百万级的 Google TPU 订单 ,包括 OpenAI 联合创始人、前首席科学家 Ilya Sutskever 新创立的 SSI 也在年初选择了 Google TPU 作为算力来源。
坦白讲,这一切也不仅仅因为从 Gemini 2.5 到 Gemini 3 「模型的胜利」,也因为 Google 身上的另一种叙事——体系的胜利。Gemini、TPU、Google Cloud、Android、Google Search 这套长期被认为「太慢」「太重」的策略,突然显得有了压迫力。
行业的态度的变化尤为明显。
今年以前流行的论调是:Google 老了、官僚化了。如今却几乎是反向的情绪:Google 的节奏稳了、产品线统一了、技术底座终于显露了威力。甚至有分析师将 Google 称为「醒来的巨人」,暗示这家公司可能正在重新定义整个产业的技术路线。
不过,真正让人感到戏剧性的并不是今天的掌声,而是它与过去的落差。两年前,Google 还在为 Bard 的「翻车」公开道歉,被当作大模型时代最典型的失败案例之一。而如今,同一家公司却成了最受追捧的那一个。
从被群嘲到被追捧,Google 到底是怎么做到的?
被 ChatGPT 打醒了,但路线从未改变
2022 年底的 ChatGPT 是一声惊雷,被这声雷劈醒最彻底的,恰恰是设计开发了 Transformer 架构、当时如日中天的 Google。
基于 Transformer 架构和 Scaling Law(扩展法则),GPT-3.5 的横空出世让全球第一次意识到通用大模型的潜力。而 Google 内部的反应远比外界猜测得更激烈,搜索团队紧急成立「Code Red」应急小组,DeepMind 与 Google Brain 在内部反复讨论路线,管理层数周连续加班开会,甚至内部邮件里都弥漫着一种压力和窘境:
「如果再慢,我们会被历史淘汰。」
图片来源:Google
在这种背景下,Bard 仓促上线,问题百出,甚至因为一条错误回答导致市值狂跌千亿美元,社交媒体和科技圈都在质疑 Google「尚能饭否」?至少在当时,更关键的还不是产品本身,而是背后很多人的行业判断:
Google 失去了节奏感,躺在功劳簿上,被 OpenAI 打得措手不及。
这就是「Google 掉队论」的起点。但真正反转的是,Google 在最被看衰的那段时间,并没有换路线。2016 年起,Google 就宣布「AI-first」(AI 优先),并在那之后持续投入了一条业内最重、最系统的「全栈式 AI」路线:
不仅作为全球第三大云计算厂商运营遍布全球的数据中心,自研 AI 芯片(TPU),还自主训练大模型,甚至开发 AI 应用(如 Nano Banana、NotebookLM)。
图片来源:Google
更不用说,Google 还有全球规模最大的搜索场景、Google Photos、YouTube 上海量的多模态训练素材。这些看起来「不性感」「非爆发式」的长期工程,在 ChatGPT 的巨大冲击下并没有被抛弃。
掉队不是方向错,而是路线太长。既然路线正确,那就不能换,而是要加码。所以 Google 在经历 ChatGPT 的冲击和 Bard 的失败后,也经历了最猛烈的调整期。
「Google 式全栈」:十年投入,一朝兑现
首先是当年被认为「不可能」的事情发生了,2023 年 4 月,Google Brain 与 DeepMind 合并为一个统一团队,两支全球最强的研究力量被强行揉成一支,路线和节奏由曾经主导开发 AlphaGo 的 DeepMind 创始人 Demis Hassabis(杰米斯·哈萨比)统一指挥。
图片来源:Google
对外的说法是「统一资源」,但业内都知道,这背后真正清理掉的是 Google 内部长期存在、几乎无法调和的路线分歧和组织壁垒。AI-first 战略喊了很多年,但直到这次重组,它才第一次真正「力出一孔」。
与此同时,Google 过去十年一点点打下的底座开始显露出价值。TPU 本来就是为谷歌自身服务的芯片,先是给搜索和广告做推理加速,然后逐步支撑内部模型的训练。当大模型时代到来,这种优势恰好成为了一个行业变量,也是 Google 与其他所有大模型厂商最核心的差异之一。
尤其是在 ChatGPT 之后,TPU v5、v6、v7(Ironwood)的节奏明显加快、加大。从 Anthropic 开始,Google 也开始把自家芯片拿出去做外部大规模商用,从本地训练、云部署,到现在的专线算力、TPU@Premises 等方案,一步一步抬升自家云的含金量。
图片来源:Google
而从 Bard 到 Gemini,本质上还伴随着一次「架构统一工程」:从跑在 Pixel 和 Chrome 上的 Gemini Nano,到侧重吞吐和延迟的 Gemini Flash,再到最强的 Gemini Pro,背后都共享同一套架构、训练方法和评测体系。
这套统一后的体系,让 Gemini 2.5 能在推理和多模态上重返第一梯队,也让 Gemini 3 能在视觉、语音、文本和代码理解上全面进化。Google 过去被嘲笑的「慢」,恰恰来自于它在为这条统一路线铺底,而不是没有方向。
体系的成形,最终还是要落地到产品上才能证明价值。在 Bard 的失败后,Google 可能也意识到模型的核心价值,以及盲目生成式 AI 化的问题,选择了一条不同优先级的路线。
最激进的突破是搜索,不仅支持了 AI 预览,还在早些时候下定决心,正式上线了 AI Mode。Pixel 手机也是 Google AI 化改造的另一个主力,云端和设备端不同尺寸、不同设计目的的 Gemini 模型,也在影像、翻译、信息处理以及语音助手体验上带来质的改变,Magic Cue 智能信息提示更是手机 AI 化的关键方向之一。
图片来源:Google
不同于已有产品和服务的 AI 化改造,NotebookLM 和 Nano Banana 作为今天原生 AI 应用的代表,则是代表了 Google 探索 AI 时代的另一种路径,一个重构了学习与知识管理,一个把视觉生成推向了更轻、更快、更自由的方向。
可以说,过去差不多十年 Google 把芯片、模型、云基础设施、搜索规模、移动端生态、视频和图像数据全部捏成了一套体系。这看上去笨重、缓慢,但当模型能力、算力底座和产品矩阵在同一条路径上汇合时,也突然具备了别人难以复刻的整体性。
阿里、百度能否实现 Google 式「反转」?
如果把国内这两年的大模型竞争放到同一个坐标系里,豆包的领先已经不是「更快一点」,而是彻底甩开了身后的所有追赶者。
QuestMobile 的数据显示,今年第三季度豆包 App 的月活已经冲到 1.59 亿,超越了 DeepSeek,并且遥遥领先其他 AI 应用。同时,火山引擎的公有云大模型调用量份额更是逼近一半,日均 token 调用量突破三十万亿。
图片来源:QuestMobile
这种规模带来的滚雪球效应,让豆包在用户侧、应用生态和模型调用上都形成了「越用越强」的正循环。
但如果把视角稍微拉高一点,又会发现豆包的领先并不意味着这场竞争已经盖棺定论。因为在 Google 身上我们已经看到,真正决定胜负的从来不是一两次爆发,而是体系。阿里这两年在模型、算力、开源和应用层的连招,正在让它成为最有可能走出「Google 式反转」的国内玩家。
千问 App 的爆发只是最外层的信号。真正支撑它的,是阿里过去两年在全球开源社区建立起来的 Qwen 模型号召力,以及大规模基础设施投入带来的底层优势。
Qwen2.5 到 Qwen3-Max 这条路线,把模型的推理、多模态和代码能力推到国际一线;Qwen 在 Hugging Face、GitHub 的累计下载量已经摆在全球前列,甚至多次登上全球开源榜前几的位置。
而阿里今年明确以千问取代通义,也是在把这些底层能力重新压缩成一个 C 端入口,让自身的技术体系第一次具备了向大众规模化输出的可能。
图片来源:阿里
某种意义上,千问现在的状态很像 Google 之前的阶段——模型够强,生态够深,入口刚刚成型,真正的大考才刚开始。
而百度虽然在产品,尤其是在 C 端产品的节奏上慢半拍,但仍然有着极强的技术底座。文心 5.0 原生全模态架构、万亿参数规模、与昆仑芯的深度绑定,让百度在技术完整性上保持着独特的位置。它的 AI 云、城市级业务、自动驾驶体系,也让它在 To B / To G 领域拥有别人难以复制的纵深。
只是,这种体系化的投入并不会自然转化成 C 端用户规模,中间还有很多路要走。
把国内这三家放在一起看,更能理解 Google 的启示意义。豆包证明了「规模」本身就是能力的一部分,是最现实、最直接的飞轮;阿里证明了开源、全栈和大生态的深耕可以在关键时刻形成反转势能;百度则证明了底座的完整性永远不会过时,只是在等待一个足够大的应用窗口把体系推向前台。
国内的竞争还远没结束,而真正决定未来的,很可能不是谁跑得最快,而是谁能把模型、算力和应用最终捏成一条完整的路径。
本文来自微信公众号“雷科技”,作者:雷科技,36氪经授权发布。















