前谷歌 CEO 施密特:AI 像电与火,这 10 年决定未来 100 年

AI深度研究员·2025年09月24日 09:25
AI转型基础设施,电力成瓶颈,平台闭环决胜。
施密特
未披露江苏省2017-06
汽车零部件销售商
我要联系

2025 年,AI 世界正被无形的张力撕扯:

一边是模型参数的激增,一边是系统资源的极限。

大家都在问:GPT-5、Claude 4、Gemini 2.5 谁更强?但前谷歌 CEO Eric Schmidt (埃里克·施密特) 在 2025 年 9 月 20 日的公开演讲中提出了更深层的洞察:

“AI 的到来,在人类历史上,等同于火、电的发明。而接下来的 10 年,将决定未来 100 年的格局。”

他不是在讲模型性能,也不是 AGI 的远近,而是在说:

AI 不再是提升工具效率,而是重新定义商业运作方式。

与此同时,在硅谷知名投资机构 a16z 的一场对话中,芯片分析师 Dylan Patel 指出:

“夸张的说,现在抢 GPU 就像抢‘毒品’一样,你要托关系、找渠道、抢配额。但这不是重点,真正的竞争是谁能构建出支撑 AI 的一个完整体系。”

两人的观点指向同一个发展趋势:

  • 参数不是边界,电力是边界;
  • 模型不是护城河,平台才是护城河;
  • AGI 不是目的,落地才是关键

如果说过去三年,AI 的主线是能力爆发;

那接下来十年,主线就是基础建设。

第一节|AI 不再是工具升级,而是系统重构

在这场对话里,Eric Schmidt 开门见山地说:

“AI 的到来在人类历史中,和电、火的发明处于同一等级。”

他不是在强调 AI 有多聪明,而是在提醒大家:我们熟悉的工作方式、管理模式、赚钱方法,都可能要彻底改变。

不是让 AI 帮你写得更快, 而是让 AI 决定该怎么写。

Schmidt 说,现在最强的 AI 工具,已经不再是一个助手了,而是正在变成:

一种全新的基础设施,就像电网一样,成为所有组织的标准配置。

这一句话,直接颠覆了过去几年人们对 AI 的看法。

换句话说,这不是个人技能提升或团队效率优化,而是整个组织运转方式的根本改变:

  1. 决策方式变了,AI 参与思考;
  2. 写作、编程、客服、财务都有了 AI 搭档;
  3. 数据输入、结果评估、反馈机制都被 AI 重新设计。

这种全面的组织变革让 Schmidt 意识到,不是预先制定详细流程,而是在实际应用中让 AI 逐步适应和优化。

据他介绍,自己目前参与的几家创业公司都采用了这种方法,不是先做完整规划,而是让 AI 直接参与工作,在实践中不断调整和完善。

所以他讲的,不是模型更强了,而是组织要不要转向 AI 原生的新形态。

AI 正在从工具,变成企业运营的基础设施。

第二节|限制 AI 发展的,是电力

过去我们总以为,AI 的能力发展,会被技术卡住:

芯片性能不够,模型算不动;

算法太复杂,推理速度太慢。

但 Eric Schmidt 说,真正限制 AI 发展的不是技术参数,而是电力供应。

他提到一个具体数据:

“到 2030 年,美国需要新增 92GW 电力,才能支撑数据中心的需求。”

什么概念?

一个大型核电站,功率也不过 1 到 1.5GW。

92GW,相当于几十座核电站的发电量。现实却是:美国当前在建核电站,基本是零。

这意味着,未来问题不是模型技术不够先进,而是电力供应跟不上训练需求。

Schmidt 甚至对国会说过一个令人意外的例子:他们可能需要在海外训练美国自己的模型,比如在中东国家的发电基地。

(Sam Altman 刚刚发布博客:《智能时代的无限可能》)

这种对电力的渴求并非危言耸听。就在 9 月23 日,OpenAI CEO Sam Altman 刚刚发布博客,提出了一个更激进的方向:我们希望建造一种工厂,每周新增 1GW 的 AI 算力设施,用电规模堪比一座城市。

他明确指出,这将需要芯片、电力、机器人、建筑等多个系统的协同突破。

用他的话说:“一切都始于计算。”

Altman 的这个目标,不是远景展示,而是正在布局的基础建设。它正是 Schmidt 所说“AI 将成为新电网”的现实化路径。

事实上:

模型训练本身并不贵,真正的成本是电力消耗、运行时间和设备维护。

随着推理任务越来越多,生成内容越来越复杂(图像、视频、长文本),AI 工厂的电量需求正变成新的算力瓶颈。

Dylan Patel 在另一场对话中也提到,搭建 AI 系统时,不仅要考虑芯片有多快,还要考虑散热、电费、稳定性。他说得更形象:

“AI 工厂不是买一堆 GPU 就行,还要考虑电能调度和持续运行能力。”

所以这不是芯片问题,而是电力跟不跟得上的问题。

而当电力无法满足时,连锁反应就来了:

  • 模型不能训练;
  • 推理成本升高;
  • AI 工具无法大规模部署;
  • 最终失去落地的可能性。

Schmidt 认为,基础设施跟不上是目前 AI 落地面临的最大现实挑战。没有足够能源支撑,再领先的模型能力也用不起来。

因此,AI 的下一个战场不在实验室,而在发电厂。

第三节|不是谁有芯片,而是谁能把它们用起来

而即便电力解决了,问题还没完。你真的能把这些芯片、模型、任务,全都运行起来吗?

很多人以为,只要拿到 H100、B200 这些最先进的芯片,AI 工厂就建成了。

但 Dylan Patel 一上来就泼了冷水:

“现在 GPU 非常紧缺,要发短信到处问'你有多少货?什么价格?”

他接着说:

“但光有芯片还不够。核心是要让它们有效协作。”

也就是说,芯片本身只是一个部件,真正决定 AI 工厂能否持续运行的,是你有没有能力把这些芯片整合起来运行。

他将这种整合能力分为四个层面:

  1. 算力底座:GPU、TPU 等硬件基础;
  2. 软件栈:训练框架、调度系统、任务分配器;
  3. 冷却与电力管理:不只是有电,还要把温度、负载、电费控制好;
  4. 工程能力:谁来优化模型、调优算力、控制成本。

这就是 Dylan 所说的“AI 工厂”的核心:AI 工厂不是一个模型、也不是一张卡,而是一整套连续的工程调度能力。

你会发现,AI 工厂不仅需要大量算力,更需要复杂的工程配合:

  • 一堆 GPU 是“原材料”;
  • 软件调度是“控制室”;
  • 冷却和电力是“水电工”;
  • 工程团队是“维修组”。

简单来说,重心已经从“造模型”转向了“建基础设施”。

Dylan 观察到一个有趣的现象:你看现在的芯片公司,不只是卖卡了,而是开始“包施工”了。Nvidia 开始帮客户整合服务器、配置冷却、搭建平台,自己就成了平台。

(图源:路透社报道)

这场访谈发布的同一天,Nvidia 与 OpenAI 公布了一项未来合作意向:Nvidia 将为 OpenAI 提供最多 10GW 级别的数据中心资源,投资规模可能达到数 1000 亿美元。

Sam Altman 在声明中说了一句话,恰好印证了上面这个逻辑:

计算基础设施将是未来经济的基础。Nvidia 不只是卖卡、供芯片,更是和他们一起部署、建设、运营整个 AI 工厂。

这说明了一个趋势:真正有能力形成闭环的,不是最聪明的人,而是最懂如何落地的人。

也就是:

  • 能造出模型,是一回事;
  • 能让模型每天稳定运行,是另一回事。

AI 不再是买来就能用的产品,而是需要持续运营的复杂工程系统。关键是你有没有长期运营这套系统的能力。

第四节|AI 能力扩散成趋势,竞争焦点在哪?

当大家还在争夺运营能力时,新的变化已经出现了。

AI 模型做得越来越好,越来越聪明,但 Eric Schmidt 提了个警告:

“我们无法阻止模型蒸馏。几乎任何一个能访问 API 的人,都能复制它的能力。”

什么是蒸馏?简单说:

  1. 大模型虽然能力强,但部署成本太高;
  2. 研究者会用它来训练一个小模型,让小模型模仿它的思考方式;
  3. 成本低、速度快、精度高、难以追踪。

就像你没办法复制一个顶级厨师,但可以通过他做出来的菜,教会另一个人做出八成相似的效果。

问题就来了:能力越容易被转移,模型本身越难被限制。

(Dylan Patel,知名芯片行业分析师,专注AI基础设施研究)

Dylan Patel 也提到一个行业趋势:

现在蒸馏成本,只占原始训练的 1% 左右,却能复现原模型 80-90% 的能力。

即使 OpenAI、Google、Anthropic 把模型保护得再严密,也挡不住有人通过蒸馏获得相似能力。

以前大家比的是谁更强;现在开始担心谁还控制得住?

Schmidt 在访谈里说:最大的模型将永不开放。而小模型的扩散,将不可避免。

他不是在鼓吹封闭,而是在提醒一个现实:技术扩散的速度,可能远快于治理跟上的节奏。

举个例子,现在已有不少团队用 GPT-4 的 API,去蒸馏出一个 GPT-4-lite:

成本低,易部署;

基本对外没有明确标识;

用户用起来感觉几乎一样。

这就带来一个难题:模型的能力,可能会像“空气”一样扩散;但模型的源头、责任归属、使用边界,都很难界定清楚。

Schmidt 真正担心不是模型太强,而是:

“当越来越多的模型具备强能力,却不受监管、难以溯源、责任不清,我们该如何确保 AI 的可信度?”

这种现象已经不是假设,而是当前的现实。

随着 AI 能力扩散已经成为不可逆转的趋势。单纯拥有先进模型不再是护城河。竞争的焦点已经转向了如何更好地运用和服务这些能力。

第五节|平台的关键,是越用越准

所以最终,比能不能造出来更重要的是:你能不能构建出一个越用越好的平台?

Eric Schmidt 给出了他的答案:

“未来成功的 AI 公司,不只拼模型性能,更要拼持续学习的能力。”

通俗说就是:你不是一次性做出一个产品就完事,而是建一个平台,让它用得越多越聪明、越用越好用、越用越稳定。

他进一步解释:

平台的核心不是功能,而是让别人离不开你。

比如:

  • 电网不是因为灯泡亮,而是因为能让所有灯都亮;
  • 操作系统不是因为功能多,而是能让一批应用稳定运行;
  • AI 平台也一样,不是做出某个智能助手,而是让别的团队、用户、模型都能接入、调用、增强。

AI 平台不是某个功能,而是一套持续运转的服务网络。

他还建议年轻创始人:不要只问这个产品做得完美不完美。要看它有没有形成一条“用 → 学 → 优化 → 再用”的路径。

因为:能持续学习的平台,才有长期生存的可能。

Dylan Patel 补充说,这其实也是 Nvidia 成功的路径。黄仁勋做了三十年 CEO,靠的不是运气,而是不断把芯片和软件绑成闭环:客户用得越多,他就越了解客户想要什么;越了解需求,产品就越好用;产品越好用,客户就越难放弃。

这样就形成了良性循环,越用越值。

不是“发布即巅峰”,而是能够持续成长的平台。

Schmidt 总结得很清晰:你能不能构建出这样一个增长机制?一开始可能很小,但它能不断适应、不断扩展、不断更新?

他对未来 AI 平台成功者的判断是:

不是你写了什么代码,而是你能不能让一个平台活下来,而且越活越强。

结语|谁先形成闭环,谁赢未来

Eric Schmidt 在访谈中说:

“AI 就像电与火,这 10 年,将决定未来 100 年。”

AI 的能力已经准备好了,但往哪走、怎么搭、怎么用还没想清楚。

现在的重点不是等下一代模型,而是把现有 AI 用起来、用得好。别总想着 GPT-6/DeepSeek R2 什么时候出,先把手头的工具在客服、写作、数据分析等场景中跑通。让 AI 能 24 小时稳定工作,而不是只在发布会上惊艳一下。

这不是聪明人的比赛,而是执行力的较量。

谁能率先把 AI 从实验室带到现实,谁就掌握了未来十年的主动权。

而这场“闭环之争”,从现在就已经开始。

📮参考资料:

https://www.youtube.com/watch?v=vvlE8-MzxyA

https://www.youtube.com/watch?v=bircUYzIlMg&t=442s

https://blog.samaltman.com/abundant-intelligence

https://eta-publications.lbl.gov/sites/default/files/2024-12/lbnl-2024-united-states-data-center-energy-usage-report.pdf?utm_medium=email&utm_source=chatgpt.com

https://techpolicy.press/transcript-us-lawmakers-probe-ais-role-in-energy-and-climate

https://eta-publications.lbl.gov/sites/default/files/2024-12/lbnl-2024-united-states-data-center-energy-usage-report.pdf?utm_medium=email&utm_source=chatgpt.com

本文来自微信公众号“AI 深度研究员”,作者:AI深度研究员,36氪经授权发布。

+1
18

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

报道的项目

施密特
我要联系
汽车零部件销售商

下一篇

如今的黄光裕,手里还有什么筹码?

3小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业