再论生成式人工智能经济学:两年之后

神译局·2026年05月08日 07:06
半导体是一场单人游戏。应用是一场双人游戏。基础设施是唯一的竞争层。

神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

很高兴,时至今日能更新我在 2024 年发布的那份分析报告:《生成式人工智能经济学》。这是我所有作品中回顾次数最多的一篇,因为它时刻提醒着我 AI 行业的“底层物理逻辑”是什么。

两年前,我发现生成式 AI 的价值链是倒挂的:计算层占据了约 83% 的总营收和约 87% 的总毛利。而应用层虽然最接近终端客户,却几乎颗粒无收。我当时预测,随着时间的推移,这种局面会发生反转,就像以往每一次平台跃迁所表现出的规律那样。两年前,我写道:

两年过去了,AI 生态系统的年化营收增长了约 5 倍,从约 900 亿美元飙升至约 4350 亿美元。但令人惊讶的是,其经济格局的轮廓几乎没有发生变化。

核心结论:半导体是一场单人游戏;应用是一场双人游戏;基础设施是唯一的竞争层。在 AI 领域,最赚钱的策略依然是“卖铲子”。:)

下面我们就来深入分析一下!

#1 价值链依然处于倒挂状态

以下是各层的具体拆解:

  • 半导体(约 3000 亿美元):这一层几乎被英伟达(NVIDIA)垄断。其数据中心业务上季度营收达 620 亿美元,年化约为 2500 亿美元。博通(Broadcom)的 AI 半导体业务(为谷歌、Meta、字节跳动提供定制加速器)贡献了约 340 亿美元。此外,超大规模云厂商为自研芯片计划直接采购的高带宽内存(HBM)估值约 250 亿美元,补全了剩余部分。这里的集中度极高:英伟达占据了该层约 80% 的份额。

  • 基础设施(约 750 亿美元):即 AI 专用云基础设施。Azure、AWS、GCP 和 Oracle 各自贡献了 100 亿至 200 亿美元的 AI 相关营收。CoreWeave 贡献了约 60 亿美元。Baseten、Together、Modal 等推理服务商占据了其余份额。与其它层不同,这一层的分布在各大云厂商之间相对均衡。

  • 应用(约 600 亿美元):集中度同样极高,但主要集中在两家公司身上。OpenAI 和 Anthropic 合计年化营收约 450 亿美元,占据了该层约 75% 的份额。排在第三位且差距较大的,是像 Cursor 这样的 AI 编程玩家,紧随其后的是快速增长的智能体(Agent)公司,如 ElevenLabs、Glean、Sierra、Perplexity、Replit、Lovable、Harvey、Abridge 等。

核心结论:半导体层依然攫取了 AI 总营收的约 70%。而在传统的云技术栈里,半导体的份额仅为这一数字的十分之一,约为 8%。这种差距正是本次超级周期与上一次周期之间的核心扭曲点。

#2 AI 规模增长了 5 倍,但价值绝大部分被英伟达收割

尽管整个生态系统增长了 5 倍,但其形态并没有发生太大改变。从增长百分比来看,应用层增长最快(两年内增长了 12 倍)。但从绝对金额来看,半导体层增加了约 2250 亿美元,而应用层仅增加了约 550 亿美元。仅英伟达一家就增加了 1750 亿美元的增量营收,这几乎是目前整个应用层规模的 3 倍。

利润分配的失衡程度更甚。半导体层的毛利率约为 73%,基础设施层约为 55%,而根据我的估算,应用层的毛利率仅为 33% 左右。

经过计算:半导体层赚取了约 2250 亿美元的毛利,基础设施层约 400 亿美元,而应用层仅为约 200 亿美元。半导体层拿走了 AI 生态系统中 79% 的毛利总额。相比之下,在传统云技术栈中,应用层占据 70% 的利润,而半导体层仅占 6%。AI 技术栈几乎就是其镜像反转。

在过去的两年里,基础设施和应用层各获得了约 4 个百分点的利润份额,半导体层则从 87% 降至 79%。照此速度发展,应用层若想达到其在云时代所享有的份额,至少还需要十多年的时间。

#3 资本支出之问:这笔钱花得值吗?

2025 年,五大超大规模云服务商的资本支出约为 4430 亿美元,较 2024 年的 2560 亿美元增长了 73%。预计 2026 年这一数字将突破 6000 亿美元,其中约 75%(约 4500 亿美元)将投向 AI 基础设施。这引发了一个显而易见的问题:如此巨额的投入能否产生正向的投资回报率(ROI)?

各大公司的 CEO 们正赌这笔钱花得值:

  • 亚马逊的 安迪·贾西(Andy Jassy,2025 年第四季度财报电话会议,2026 年 2 月):“尽管我们目前增加产能的速度极快,但我们正同步将其转化为收益。”

  • 谷歌母公司 Alphabet 的 桑达尔·皮查伊(Sundar Pichai,2025 年第四季度财报电话会议,2026 年 2 月):“我们看到 AI 投资和基础设施正在全面带动营收和增长。”尽管他也承认目前的 AI 投资规模中存在“非理性因素”。

  • Meta 的 扎克伯格(Mark Zuckerberg,2025 年第四季度财报电话会议,2026 年 1 月):“我认为积极超前搭建产能是正确的策略。在最坏的情况下,我们也只是在一段时间内减缓新基础设施的建设,直到业务规模能够充分利用已建成的产能。”

以下是这些资金的投向。下图显示了按芯片类型划分的累积 AI 算力规模。结果显而易见:英伟达占据了压倒性地位,尽管非英伟达芯片已开始在边缘领域崭露头角:

来源:Epoch AI。累积算力规模以 H100 等效单位衡量。

各大超大规模云服务商都在通过研发自研芯片来进行风险对冲。按成熟度排序如下:

  • 谷歌 TPU(最成熟):第七代 Ironwood 现已全面上市。Anthropic 订购了多达 100 万颗 TPU 芯片,价值数百亿美元。谷歌目前正在将 TPU 作为商业硬件销售。据报道,来自 TPU 的竞争压力已迫使英伟达针对部分客户降价约 30%。

  • 亚马逊 Trainium(快速扩张):已部署 140 万颗 Trainium2 芯片,支撑了 Bedrock 的大部分推理工作负载。据亚马逊称,其自研芯片业务的年化运行率已突破 100 亿美元,增长率达三位数。Trainium3(3 纳米工艺)已投入生产,到 2026 年年中的几乎所有产能已被预订。

  • OpenAI 自研 ASIC(新晋玩家)+ AMD:与博通签署了多年期协议,从 2026 年开始采购 10GW 的定制加速器。此外,还与 AMD 签署了 6GW 的 Instinct MI450 GPU 协议。

  • 微软 Maia + AMD:2026 年 1 月在 Azure 中部署了 Maia 200。据称其推理性能是 Trainium3 的 3 倍。目前该芯片正承载 ChatGPT 的部分工作负载。纳德拉表示,微软在推进 Maia 的同时,仍将继续采购英伟达和 AMD 的芯片。

  • Meta MTIA(仅限内部使用):MTIA v3 已部署用于内部推理。于 2025 年 9 月收购了芯片初创公司 Rivos,旨在开发针对 2026 年的 RISC-V 架构设计。

黄仁勋对自研 ASIC 不屑一顾,称其“缺乏竞争力”,并指出“许多 ASIC 项目最终都夭折了”。从历史来看,他说得没错。:)

#4 技术栈最终会反转,但可能需要 10 年以上

我依然相信技术栈最终会发生反转,只是对具体时间不那么确定了。

要实现格局的反转,要么应用层持续爆发式增长,要么半导体层变得更便宜。这两者都在发生,但其速度都不足以在当前十年内改变现有格局。

云技术栈用了大约 15 年时间,才从硬件主导演变为软件主导。AI 技术栈可能会遵循类似的时间表。自研芯片的进展是关键变量。如果 TPU、Trainium 和其他 ASIC 能在大规模应用上取得成功,它们可能会挤压英伟达的利润空间,并使利润向技术栈上游转移。但除谷歌的 TPU 之外,目前还没有任何自研芯片计划被证明能在训练工作负载上与英伟达进行大规模抗衡。

最大的公开机遇依然存在于应用层,这也是我花费大部分精力的地方。但投资者和创业者应该清醒地认识到当下的经济现状:AI 领域最赚钱的公司,依然是那个“卖铲子”的人。

译者:boxi。

+1
59

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

一大批全新疗法开始走入大众视野。

2小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业