高通开始造电厂

王智远·2025年10月28日 12:02
当英伟达成了OPEC,高通决定自己发电

昨天凌晨,我在看黄金盘,跌的都要哭了。

然而,电脑浏览器通知推送了一条新闻,标题写着:世界上最有价值的公司 Nvidia,刚刚遇到一个新的美国对手。

一开始,我没太在意,以为又是哪家芯片厂蹭热点。可往下翻了两行,看到了一个名字,高通。我愣了一下。

高通?不就是做手机芯片的那家公司吗?怎么突然杀进了英伟达的腹地?于是,赶紧去看了这个新闻,到底在说什么?

1

事情是这样:高通突然宣布要做 AI 数据中心芯片,名字叫 AI200 和 AI250,直接对标英伟达。问题是:它为什么要这么干呢?

要理解这个动作,得先看清三个事实。第一块是算力。

这两年,整个 AI 行业都被「算力」绑住了。不论训练模型、推理应用,还是搭一个最普通的 API,背后都在烧 GPU。

可 GPU 已经贵到离谱。

一张英伟达 H100,市场价三万美元起;整柜 NVL72 的系统,动辄一百万美元以上,还得排队。企业在「等卡」,AI 的门票,被一家公司垄断了。

根据国际能源署(IEA)数据,2024 年全球数据中心耗电量突破460 太瓦时(TWh),其中约20%用于 AI 训练与推理,这相当于整个阿根廷一年的用电量。

算力已经成了电力的下游产业,GPU 更像「电力的中间商」。当算力成了「新石油」,英伟达自然成了新的 OPEC。

然而,石油越贵,世界越焦虑——算法再聪明,也逃不过电费的天花板。怎么办?所有人都在想:有没有一种更便宜的能源?

在能源这件事上,高通最有发言权,它的基因是「在有限电力里榨出极限性能」。

过去十年,高通靠手机芯片吃饭。一颗骁龙芯片,要同时搞定图像、AI 推理、网络连接、续航、散热。它的核心竞争力是能效:用更少的电,干更多的活。

现在,它把这种逻辑从手机搬进了数据中心,你可以理解为,它是把旧基因放大了;手机时代,它解决「电池有限」的问题;AI 时代,它要解决「电力有限」的问题。

所以,英伟达靠堆算力,让电脑更聪明,高通是追求更持久;当所有人都在想 AI 怎么造神,它开始想着怎么帮 AI 节能。

于是,就有了 AI200、AI250。它的目标很简单,把「每瓦推理产出」做高。

要说第三块是高通自己的焦虑。

手机市场的红利早就见顶。安卓饱和,苹果自研芯片,高通的利润被一刀一刀削,它 2023 年的手机芯片营收下降超过20%,品牌记忆也在减弱。

在资本眼里,这家公司仍然「稳定」,但在产业里,它正在被边缘化;英伟达在讲智能的故事,苹果在讲生态的故事,唯独高通没故事可讲。

它必须找到第二条增长曲线,而这条曲线,得换一套「底层逻辑」;于是它开始赌AI最基层的东西:电力。看谁跑的更久。

看懂这三点,你也许能懂了它的动机。表面造芯片,本质造「能源系统」,它想把这套能效逻辑,卖给整个世界。

2

新闻还没过1个小时,它紧接着公布了首个客户:沙特 HumAiN。

沙特,一个靠石油养大的国家,一个从能源逻辑里长出来的国家。这个国家的信仰是能源,逻辑是能源,命脉也是能源。

而现在,它第一次,把钱砸进了「硅能源」。要知道,HumAiN 是沙特主权基金 PIF 投的项目,背后是 Vision 2030 计划的一部分。

他们要在沙漠里建一座 AI 城市,目标是造算力。

官宣的这笔订单是200 兆瓦。200兆瓦有多大?相当于一座中等城市一整年的数据中心电力消耗。

再换个角度,如果全换算成英伟达 H100 的功率,大约能同时点亮五万张 GPU。你甚至可以理解成,沙特一次性买下了半个硅谷的「大脑」。

强大吧。换句话说,沙特在买「AI 发电站」。这意味着,能源定义在变。

过去它卖石油,现在它买算力;从「出口能源」到「进口智能」,沙特正在完成一场地缘反转。因为它明白,未来石油,是瓦数。谁掌握算力,谁就掌握智能社会的发电机。

这也是高通为什么激动,它第一次把芯片,卖成了能源;而买家,恰好是能源王国本身。

所以,智远认为,这件事上高通想借沙特,去验证一个更大的叙事:智能时代的能源革命,正在从硅谷转向中东。

后来一直在想,为什么世界上所有人都盯着英伟达呢?我认为,有一个词很关键:信仰。

英伟达每次一出面,几乎都成了「社交货币」。它像一台「信仰制造机」,整个 AI 行业的情绪,包括资本的情绪,都被它牵着走。

黄仁勋太会造梦了。

他在各种公开场合讲生态、讲未来、讲人类的新纪元,那种叙事,像当年的乔布斯在宣讲一种文明。

所以,当所有人都在喊「创新」时,没有人敢得罪他,因为离开它,就等于「断电」;模型公司、云厂、科研机构,几乎都在靠它的 GPU 呼吸。

我让Agent跑了一下最新数据:

2025 Q1,NVIDIA 在插件显卡市场份额约92%;2025 Q2,升至94%;在 AI 加速器/数据中心 GPU 市场,它的份额长期保持在90% 以上

更离谱的是,全球数据中心 GPU 市场规模预计,2024 年约 873 亿美元,2025 年它的份额增至约 1 200 亿美元。

而英伟达的数据中心业务毛利率,已经高达 78%。一张卡的利润,比汽车行业整车利润还高。这意味着,它卖的是一种「通行权」。

所以,这哪是买芯片,就像你走进了它的生态,它变成了你的基础设施,你成了被它控制的一环。

还有更离离原上谱的,这种信仰,是用「稀缺」换来的;它控制着交付周期、定价节奏、出货节拍,像在演一场「人工饥荒」,GPU 越难买,信仰就越贵。

但凡一个系统靠信仰维系,它的终点就是泡沫,泡沫尽头是分裂,到这一步,问题就成了结构性的了。

为什么是结构?怎么破结构呢?

我发现,这事,有点像水。水往低处流,流着流着,就会自己找到平衡。技术也这样,一个领域被垄断太久,自己就会想办法分裂。

回头看历史,

Intel 曾经是 CPU 世界的霸主,后来 ARM 崛起;微软一家独大时,Google、苹果从边上绕出来;能源领域也是这样,OPEC 定价太狠,就会有人搞新能源。

英伟达也类似,当一家公司的利润率高到离谱、交货周期长到荒谬时,新玩家就一定会出现,而这次改革者是:高通。

你可以把它理解成一种自然规律:技术垄断需要一种替代、修正,要靠新的能量去重组旧的系统,每个时代都会这样,先有造梦者,再有修正者。

这就是科技的节奏:造神、滞涨、再平衡,也是这场 AI 战争的底层逻辑。

3

说实在,我认为算力这件事,现在已经从叙事周期,变成了工程周期。

前几年大家都在讲「智能革命」,一夜之间冒出无数模型、Agent、AI操作系统。可现在人开始问:到底谁能真的跑得起来?

模型再聪明,也得有人买单,得有电、有芯片、有效率。所以,叙事红利结束,是工程叙事的开始。

目前我观察到三个方向在同时发力。

第一个是模型轻量化。

前阵子,UNESCO 和 UCL 发了一份联合报告,这是联合国教科文组织和伦敦大学学院,他们做了个实验:删掉大模型里冗余的部分,能耗居然能降 90%。

这说明,模型够不够大不重要了,能不能高效地跑才关键;模型轻量化让电少了、响应快了、成本低了,于是,它才能让中小企业插队。

而第二个方向,是推理去中心化。

AMD 的 CTO Mark Papermaster 前阵子说,AI 推理正在从数据中心往手机、笔记本、汽车这些终端迁移,这句话很关键,算力重心,正在从「集中」变成「分布」。

当算力不再只属于云厂商,而能在每个终端节点跑起来,AI 就成了更广义的「社会基础设施」;因为只有推理去中心化,智能才能离场景更近,也离我们更近。

第三,是芯片的低功耗化。

高通这次推出 AI200 和 AI250 ,其实奔着「能效」去的,它的目标是「每瓦产出更高」,你可以理解为,它想做 AI 世界的「节能电厂」。

这背后的逻辑很现实:当一瓦能多跑两倍推理,算力的门票就被撕开了一道缝;从性能竞争到能效竞争,这是整个产业从「造梦」走向「造系统」的转折。

所以,三股力量叠在一起,就是「算力平权」。

我不知道说的够不够清楚,模型轻量化让算法不再只属于巨头;芯片低功耗化让硬件不再只属于数据中心;而推理去中心化让智能不再只属于云端。

所以,只有技术正从「贵族配置」变成「公共设施」,AI 的使用权,才能一点点回到更多人手里,跑到智能终端上。

4

写到这问题来了,那未来谁在新平衡中站稳脚呢?

智远的分析认为,老玩家不会被淘汰,他们会换一种方式留下来,英伟达还在塔尖上,但故事已经变了,未来它会往生态方面布局。

比如:

CUDA、DGX系统、企业平台服务。在这个生态里,开发者、算法公司、云厂商是它的语言。

所以,你会发现,它未来会从「造卡公司」变成了「AI的微软」,卖系统,一种基础规则。

而在英伟达的阴影之外,中层力量正在上升。谷歌自己也在造芯,它的第七代自研AI芯片,已经不再依赖英伟达,专门为大模型推理提速。

亚马逊也跟上了,推出了自研的 Trainium2,用在 AWS 云服务上,专门帮客户节省算力成本;微软更狠,自己造出一颗 Maia 100 芯片,打算在自家 Azure 云上替换部分英伟达卡。

连Meta都在测试自己的AI芯片,名字叫 MTIA,它想靠这块芯片,让内部AI系统少受制于人。

这意味什么?云巨头们已经不想再「排队买卡」了,都要自己造,都在试图在不推翻英伟达的前提下,慢慢「去依赖化」。

现在高端算力依旧在英伟达手里,但系统能量,已经在外溢;新的平衡,是芯片和算力的权力,开始分散到更多玩家手中。

可这场竞争到这里还没完,真正博弈,还是生态层。为什么是生态层?你想想看,这几年,巨头们都在做什么?

谷歌先动的,Gemini进了 Gmail、Docs、YouTube,你写邮件、做文档、看视频,它都在旁边帮你,它要的,是让你每天都离不开它的服务。

再看 OpenAI,ChatGPT Enterprise 是它给企业做的「专业版助手」,能连公司知识库、能定制安全规则、能全员协同。现在已经有 300 万家企业 在用。

你可以把它理解成,它在做一个AI App Store,开发者在里面建 Agent、卖服务、做插件,这是「生态粘性」,也是「入口战争」。

微软的打法更直接。它把 Copilot 植入了 Word、Excel、Teams、Windows,让工作场景彻底AI化,你不用再学新软件,AI 直接出现在你熟悉的界面里。

亚马逊的逻辑是云,它推出 Bedrock,把各种模型打包成云服务,企业客户只要登录 AWS,就能选模型、调接口、上线产品。

国内更不用说了,几乎所有大厂都在搭自己的生态,有人靠模型,有人靠云,有人靠应用。说白了,这场AI竞赛,到最后拼谁能让别人离不开自己。

你看,这些动作不同,但指向一致,生态比拼的是黏性。技术只是入口,控制力才是终点;算力,终究会从中心回到终端,回到以人为主的服务里。

就像苹果做的那样,拼命想把「Apple Intelligence」藏进每一个设备,以后悄悄让每个人都能用上;所以,新平衡世界,应该各自归位。

或许,当AI和人重新建立连接,技术才算真正找到自己的位置吧。当然,话说回来,要高通真把这套逻辑跑出来——它的股价,会不会起飞?

本文来自微信公众号“王智远”(ID:Z201440),作者:王智远,36氪经授权发布。

+1
2

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000
特邀作者

畅销书《复利思维》作者;有关营销、科技、AI的一切。

下一篇

乾隆爱喝的茶,年轻人喝不惯吗?

2小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业