深度解析2026 GTC:英伟达万亿订单背后的AI大爆发、Token经济学与失衡供应链

硅谷101·2026年03月26日 18:22
拆解“AI五层蛋糕”

1万亿美元,这是接下来21个月,英伟达GPU订单的收入预期。

刚过去的GTC大会,黄仁勋开始停止了讲芯片的故事。他开始瞄准更大的叙事:token经济,而这将是更有野心且更持久的市场蛋糕。

本篇文章,我们将拆解英伟达的五层蛋糕生态体系。一万亿美元收入是怎么算出来的?基于Groq的LPU将给英伟达带来什么新的机会?还有黄仁勋在光通信上的提前布局与未来Scale-across(跨区域扩展)的AI工厂机会。以及OpenClaw的里程碑后,英伟达押注的token经济学将会如何发展,给算力市场将带来如何的挑战呢?

01 推理拐点已至:多模态+OpenClaw

2026年的英伟达的GTC叙事建立在两个背景和事件:一是AI应用得到落地;二是OpenClaw的爆火带动了全球的agent生态。这让黄仁勋在GTC演讲中高呼,推理拐点已经到来。

新云(Neocloud)厂商GMI Cloud创始人Alex Yeh在跟我们对话中就透露,北美的需求暴增是来自多模态和编程,而OpenClaw带来的token需求则主要来自中国。

Alex Yeh

GMI Cloud创始人 

Token(词元)的推理使用量一直在暴增,而且是以倍数的方式在增长。我们的客户也从大型的训练客户转到很多推理需要的边缘端的节点。(美国这边)一个是以代码生成为首的推理调量,另一个是多模态的视频和图片生成,这两个发展的速度都太快了。我觉得在OpenClaw这一块,美国的市场事实上还没有意识到这个影响究竟有多大。

Alex的观察和我们最近在硅谷与很多业内人士的探讨是相似的,因为北美用户,特别是有技术背景的开发者已经很适应用Claude Cowork去做一些agent任务。所以虽然OpenClaw是从硅谷火出圈的,但远没有到国内那么卷的程度。

Alex Yeh

GMI Cloud创始人

我觉得OpenClaw是从国内火到这边来,可是国内已经先开始一波了,现在也是在Mac mini或者DGX Spark上跑,可是我觉得这不是一个常态。因为这东西绝对之后都是上云的,毕竟部署一个PC的成本实在是太高。而且我看到很多的硅谷公司已经在做一个零代码、用户界面非常好用的OpenClaw。随着开源和闭源的模型越来越好,它的调用量会越来越高。所以我觉得我们甚至连1%或5%都还没有到。可是这才刚开始,全球(算力)就已经没了,token调用规模未来的发展是超级可怕的。

所以,以上是目前AI发展现状的一个大背景。有了推理需求飙升和OpenClaw爆火这两个趋势,黄仁勋的整个演讲的叙事逻辑就完全和去年不同了:以前英伟达卖芯片给云厂商和AI公司,而如今,老黄要卖token给全世界每一家公司。

黄仁勋

英伟达创始人&CEO

每一个企业,全球的每一家软件公司,都需要一套智能体系统,需要一套智能体策略,需要拥有一套OpenClaw策略。

这也是我参加今年老黄keynote的最大感受,看看PPT上面的这些小心心,就知道黄仁勋的姿态是we love everybody(我们拥抱所有人)。所以,今年GTC的最关键主题是“生态”,而不是“芯片”。

早在GTC开会的几天前,英伟达就放出了一篇名为“AI五层蛋糕”的文章来为大会造势,预示黄仁勋在今年大会上强调的是垂直整合能力和生态,而不是单芯片。

简单来说,黄仁勋给外界画了一个更大的饼。我们先来说黄仁勋在GTC演讲中提到的一万亿这个数字。

02 一万亿美元:过于保守还是极度乐观?

黄仁勋在去年的GTC上说,当前和下一代的GPU架构Blackwell和Vera Rubin的订单收入,从当时到2026年年底会达到5000亿美元。这次,他将这个预期直接上调了一倍,说截止现在,到2027年年底,预计光是Blackwell和Vera Rubin的订单收入,会直接到1万亿美元。 

要注意,这个收入是不包括英伟达新发的CPU和基于Groq的LPU芯片等其他产品线的订单收入,而光是GPU架构的订单。他在媒体闭门会上专门特别澄清,原因是因为这样外界能直观的感受到英伟达的GPU上的业务增长。

黄仁勋

英伟达创始人&CEO

如果我把这1万亿的业务范围进行更改,将CPU、Groq以及存储包含在内,那就会把两件不同的事情混为一谈,这样我在进行比较时就不够简单直接了。然而,对其他人来说,理解这1万亿的复杂之处在于:既然英伟达今天能提供多得多的产品,难道我们是在暗示Blackwell加上Vera Rubin的规模还不到1万亿吗?不,情况恰恰相反。

任扬

济容投资联合创始人

首先这个数字我觉得非常achievable(可实现的)。第二,这个数字是到现在为止它看到的实实在在的订单,可能过几个月咱们回头再看这个数字,它还有新的订单出来,这一万亿的数字还会往上走。

我觉得从财务分析角度来说,它的意义就是给2027年的营收和利润划了一个底,告诉你这个底在这儿了。然后把它这一万亿的数字放在模型里面,就能划出来2027年十三、四块钱的EPS(每股收益)的底。

而对于各大企业对算力的CapEx(资本支出),我们的嘉宾认为是还将继续上涨,一边是推理需求会继续上涨,另一边的原因是随着前沿模型的竞争趋于白热化,训练这边的需求也不会降低。

图片来源:Business Insider

任扬

济容投资联合创始人

我觉得百分比的增速会放慢,但是它肯定还是一个快速增长的状态,而且我觉得每年增长的绝对值数量不一定会变小。第一,Inference(推理) 的用量现在很明显看到有一个inflection(拐点),大家对agent的用量和token的消耗量明显提升。第二,我觉得从模型厂商的角度来说,这几家前沿实验室没有谁能明显地拉开和其他人的身位,都是在一个交替领先的状态,包括开源的这些大模型也没有明显地比闭源的proprietary(专有)模型落后非常远。

我觉得模型厂商后面可能只有两条路:要不就是往上打,只有做了应用之后,做出用户粘性,通过应用去收钱。另外一条路就是,花钱花得比别人更狠,用资产负债表或者现金流的优势,更大力度地怼算力、怼人才,希望在模型上能有一个突破。OpenAI之前有一段时间是想走这条路,包括去年Sam Altman喊出来1.4万亿这种数字。

我觉得这两条路大家都还会继续去做,所以对CapEx(资本开支)的投入一定不会小。

为什么黄仁勋今年不强调单芯片,连Rubin再下一代计算架构Feynman也只是略微提了一点?除了老黄要把英伟达的企业叙事拔高到“AI factory”以及要给所有人卖token之外,其实还因为产能跟不上,市面上还是疯狂缺卡。现在市面上大家根本买不到最先进的卡,就连两三年前发布的旧卡,H100、H200用了几年甚至能超原价卖,同时软件生态和各种配置也都跟不上老黄的速度,所以他再强调单卡的性能提升,对市场来说根本没有意义。

钱宇靖

GMI工程主管

现在市场上最成熟的平台依然是Hopper最多,Blackwell在最近几个月开始进入大规模应用的阶段,并且软件层也有比较好的进步。但是回想一下,Blackwell是在两年前就已经被宣发了的,所以我觉得是因为现在的产能还是没有办法跟当时老黄所预计的产能达到一致。

所以看起来,光是GPU的售卖,这一万亿美元的收入规模并不算过度乐观,而是真有这样的需求量。但显然,黄仁勋是不满足这一万亿的,他布局的是全生态。当token成为大宗商品,“算力即收入”,黄仁勋接下来的动作,是想把他定义中的“AI五层蛋糕”给全部打透,让英伟达持续成为AI产业线中,持续最赚钱的机器。

03 拆解五层蛋糕:同质化博弈与生态护城河

Chapter 3.1:五层蛋糕与“同质化”

黄仁勋定义的AI五层蛋糕,从下到上,分别是能源层(这里是电力等基础供应),之后是芯片层(英伟达的核心业务:卡),再之上是基建层(包括云厂商及旗下的数据中心,再往细分就是土地、供电、冷却系统、建筑工程、网络通信等),前三层被统称为AI工厂(AI factories)。

再往上,模型层有OpenAI、谷歌Gemini和Anthropic这样的顶尖模型,也有包括英伟达自研的一系列开源模型。而在应用层,则是英伟达针对不同的赛道研发技术,包括机器人、自动驾驶、工业制造、编程和企业级AI Agent等等。

你是不是有点疑惑,老黄是在布一盘什么局呢?这五层蛋糕难道每一层英伟达都能吃透吗?

任扬

济容投资联合创始人

如果把其他这几层能commoditize(同质化)掉,或者说把他们的利润打下来,让利润就集中到你这一层。这一层里到底谁是瓶颈,稀缺价值到底是集中在哪一层。之前几年稀缺价值完全是集中在芯片这一层,所以Nvidia吃到了这一轮绝大部分的利润和蛋糕,但是上面几层都还是非常有实力的。

我们的嘉宾任杨认为,每一层蛋糕中,如果每个玩家水平都差不多,没有绝对领先或者绝对垄断者,那么这一层的利润就会被摊薄,这被称为“being commoditized”(同质化)。议价权最终还是回到有绝对领先和垄断的这一层,也就是英伟达的芯片层。

也就是说,最终黄仁勋还是要靠卖芯片。但在其它层的蛋糕中,英伟达要扶持起自己的软件生态,定义规则。就像打造CUDA这样的护城河一样,一旦在新的市场定义了范式,当市场爆发,大家发现最好用的还是英伟达的平台,那最后要买的依然是英伟达的算力和卡。

比如说,英伟达看到基建层,像谷歌云和AWS这样的云厂商有强议价权之后,又扶持起了CoreWeave和Nebius这样的Neocloud(新云平台)来进行竞争。再比如说,在模型层,英伟达各种大小模型开源了一大堆,而且这次黄仁勋专门组织了一场全球最核心的开源模型论坛,就是想在模型这一层,试图在长期削弱SOTA(State of the Art,最顶尖)的顶级闭源模型的议价权。而在应用层,英伟达也在研发自动驾驶和机器人,等待行业大规模爆发,为的就是提前布局生态位。

任扬

济容投资联合创始人

如果Nvidia能够鼓励或者带领开源社区快速迭代,把token价格打下来。虽然说Anthropic和OpenAI在卖API、卖inference(推理)、卖token上是赚钱的,但如果开源模型能够用10%的价格,做到现在的前沿实验室的这些最先进的模型的90%的性能,那这些token的价格一定会被打下来。然后就把卖模型、卖推理、卖token这一层commoditize(同质化)掉,整个生态里面最后赚钱的又回到了Nvidia这边。

所以老黄正在时刻关注的其他层级的蛋糕,但最赚钱的,始终还是芯片这一层。所以这一层也是黄仁勋盯得最紧的。而这次的GTC上,传达出两个信号。

Chapter 3.2:基于Groq的ASIC反击战

第一个信号就是在芯片层,老黄发布了基于Groq研发出的LPU。要知道,对Groq的非独家技术授权交易是去年12月圣诞节前后才宣布的,花了200亿美元现金,可以说是英伟达有史以来最大的一起交易。

Groq创始人Jonathan Ross在最新的福布斯杂志采访中爆料说,和Groq的交易这件事情也是老黄只花了三周就迅速做的决定。

而到如今的GTC才3个月,产品就已经出来了,只能说,老黄和英伟达卷起来真的没其他人什么事儿了。那么,为什么要“收编”Groq呢?

简单来说就是GPU架构,即使强如Vera Rubin,擅长的是高吞吐的并行计算,做prefill(上下文预处理)和attention(注意力计算)很厉害,但在超高速token生成(decode)这个任务上就没那么给力了。因为token生成的特点是只能一个一个的生成,整个过程必然是串行链式的,对每一步延迟极其敏感。

所以,“高吞吐”和“低延迟”本身互相矛盾,很难两全。而Groq就是这个矛盾的解法。

Graham Steele

英伟达工作人员

LPX发挥作用的地方就在于那些极高交互率的场景。单独的Rubin非常适合用来处理绝大多数的推理工作负载,当涉及到超大模型、超长上下文以及极高交互性时,这就是LPX发挥作用的地方,它能为Vera Rubin提供额外的提升。

Groq通过SRAM(静态随机存取存储器)设计,天生就适合做推理和token生成。就像Groq创始人Ross打动黄仁勋的那个类比,他说强大的GPU就像“18轮大卡车”,但推理任务就像“最后一公里配送”,本身就更适合更灵活高效的面包车。他对老黄说,如果你要为美国建立一个物流网络,最佳答案是,18轮卡车和面包车你都需要。

而在OpenClaw之后的Agent时代,老黄通过与Groq的深度技术与人才合作,解决了token生成的挑战,这是非常关键的一步。而Groq的新芯片融入英伟达体系后,英伟达宣称这将解锁3000亿美金的增量市场,可以说,这200亿花得值了。但还有个内存上的小难题:SRAM缺点是第一很贵、第二很占面积、第三容量做不大。

单颗Groq 3 LPU只有500MB SRAM,而Rubin GPU是288GB HBM4,差了500多倍,根本存不下万亿参数的模型。英伟达的解法是用Dynamo软件把推理过程拆成两半,Vera Rubin这边的GPU负责prefill和attention,而Groq负责之后decode和token生成。

所以我们看到,一颗Rubin GPU配上8颗Groq 3 LPU,统一为一个推理单元。而Groq 3 LPX整机把256颗LPU装进一个机架,能提供128GB SRAM、40PB/s带宽、315 PFLOPS推理算力和640TB/s互连带宽。

英伟达和Groq的这个交易目前还面临反垄断的一些潜在调查,因为涉嫌“变相收购”(虽然这个做法已经是硅谷巨头在AI时代的基本操作了)。但LPU已经和三星在合作量产了,预计今年第三季度出货,而Vera Rubin机架已经在微软Azure云上运行。

同时,英伟达联手Groq还有一个战略上的意义,就是打出了ASIC反击战。我们之前文章说过,ASIC是专项芯片,虽然不如GPU那么通用,但如今却是各大科技巨头自研的重点,以及各个云厂商也都在扶持ASIC芯片的研发试图蚕食英伟达GPU的利润率和议价权,包括谷歌的TPU也是ASIC芯片,Groq本身也是ASIC芯片。但英伟达这次告诉外界:我也可以做ASIC芯片,而且还跟我自己的GPU结合,性能更强哦!

黄仁勋

英伟达创始人&CEO

但是有了这种架构,我们将把我们的token生成速度、生成率从200万提升到7亿,实现了350倍的增长。这就是extreme co-design(极致协同设计),我们要在垂直方向上进行整合与优化,然后再在水平方向上将其开放,供所有人享有。

Chapter 3.3:枯木逢春的CPU与备受期待的CPX

我们再来看看芯片层的第二个关键词:CPU,是不是有种“枯木逢春”的感觉。AI agent时代token经济的崛起不但救了Groq一命,连老古董CPU也重新成为了香饽饽。

虽然GPU擅长训练和运行AI模型,但随着Agent工作负载的不断增长,这些系统需要传输海量数据,并协调跨多个智能体的工作流程,这使得CPU在现代AI基础设施中的重要性丝毫不亚于GPU。

所以,英伟达在这次GTC上发布了Vera CPU,被称为“全球首款专为代理式AI与强化学习时代打造的处理器”,其效率是传统机架级CPU的2倍,速度提升50%。包括AI编程明星公司Cursor也为Vera CPU站台,说提升了他们的整体吞吐量和效率,给客户带来了更快速灵敏的编程agent体验。

Praveen Menon

英伟达工作人员

这些CPU是专为AI工厂打造的。当你们的GPU进行推理或强化学习训练时,它们会生成大量的软件代码,这些代码需要被评估正确与否,然后反馈需要传回给GPU。CPU承担了评估这些代码的任务,所以在那个阶段,你需要一个非常快的CPU来向GPU提供评估反馈,这样GPU就不需要加权了。这就是为什么我们专门打造这款产品,它具备极高的单核性能以及极大的内存带宽,这样数据就可以无缝移动,并且所有环节都能达到非常出色的机架级性能效率。所以,将所有这些结合在一起,就成就了一款非常适合智能体任务和AI工厂的理想CPU。

在芯片层这里,还有一个秘密武器就是CPX。

这是黄仁勋在去年9月的AI基础设施峰会上推出的、专门针对长语境推理进行优化的芯片,可以说代表了GPU设计的一个全新类别。这款芯片能够处理百万级tokens的软件编程和生成式视频,在速度和效率方面实现突破性提升,被外界认为能进一步稳固英伟达在推理上的优势。

有意思的是,老黄这次的演讲中根本没有提到CPX,也让业界很好奇,英伟达目前在芯片层的这套组合拳:GPU、CPU、LPU、CPX,是否会进一步拉开与竞争对手的差距。

任扬

济容投资联合创始人

我的理解是,在根据不同类型的工作负载,英伟达都有能够拿出来非常好用的产品,放到它的机柜里面。英伟达想要提供一个最完整、最全面的服务,想要什么东西我都有,全都买我的东西最方便的感觉。

总结一下,这五层蛋糕互相支撑但又互相牵制,黄仁勋在做的是要整合这五层,确保英伟达在每一层都有话语权,无论是扶持甲方的竞争对手,还是自研开源模型,还是在不同领域保持开放合作来定义行业入口和范式。

英伟达的叙事早已不是“芯片”而已了,黄仁勋在发布会上手握单芯片的那些名场面已经成为过去。未来,是完整的AI factory,是更宏大的token经济学。这让英伟达的护城河也早已超越CUDA,让竞争对手们更难攻破它的生态帝国。

04 前沿技术布道:CPO、太空数据中心与Scale-across布局

黄仁勋一直在布局下一个即将爆发的产业,也对前沿技术非常的敏锐。他这次在发布会上没太多提共封装光学CPO,以及数据中心中机组的Scale-up(纵向扩容)和Scale-out(横向扩容)。

但英伟达在3月初分别向光子技术巨头Lumentum和Coherent各注资20亿美元,并锁定数十亿美元采购承诺及未来产能权益。这两家公司都是CPO的核心供应链,业内人士认为,黄仁勋这是在准备为下一代“吉瓦级AI工厂”去铺垫光互联的底座。

Cathy Jiang

光学工程师

一个是Lumentum,它是现在唯一的高功率(400毫瓦)DFB激光器的一个供应商,在最近的OFC会议上,它们也提到了一个更高参数的1瓦强功率的激光器。另外一个是Coherent,这是在硅光光子学中有很多技术积累的几个公司合并在一起的一个公司。这两家公司,一是他们是美国公司,二是有多年的技术积累和专利的积累,三是在整个产业链上,这种投资可以帮助这些公司在下一代的技术中做更多的革新。

这一次它们更多的技术革新是在封装方面,比如说2.5D到3D的封装。但是接下来这两家公司还在进行更多的新技术的研发,比如说使用更多的光波长一起进行通信,进一步地增加它的带宽的密度。还有使用一些更加先进的技术,比如说不同的放置激光器的方法,甚至探索一些不同的波段、不同光纤的参数等等更下一步的技术革新。

目前产业里面还在讨论Scale-up(纵向扩容)和Scale-out(横向扩容),而行业人士说,黄仁勋已经在思考说再下一步,Scale-across(跨域扩展),也就是不同数据中心的互联怎么去解决了。

Cathy Jiang

光学工程师

对于不同的距离的场景,比如说Scale-up(纵向扩容)谈论的是毫米量级,Scale-out(横向扩容)讨论的是米量级,Scale-across(跨域扩展)可能讨论的是千米或者更远的量级。在这些不同量级之下,什么是一个最优的技术路线?我们还是用现在的波长,还是要换成一个其他的波长?会不会有一个技术是用现在这种光纤,还是一种中间是空着的光纤?会不会有一个技术突然出现就砸了场子,把其他的技术都带跑了?都是很有意思的一些讨论。

当然,还有更遥远的一些布局,包括在演讲中黄仁勋提到的太空数据中心等等,我们也写过一篇文章介绍。

在这篇文章的最后,我还想稍微聊聊整个芯片和数据中心供应链目前的一个情况。如果大家还记得这五层蛋糕,可以看到能源和数据中心供应链的基础层,决定了芯片的产能,也决定了整个AI模型和应用能否得到足够的算力支撑,也决定了AI的进程。

05 供应链全面吃紧:内存与能源的超级周期

我们在GTC期间跟供应链的朋友聊天,得到的信息是:缺,什么都短缺。

Alex Yeh

GMI Cloud创始人

我们是了解所有的硬件的缺货情况的,包括从各类元器件到内存端的硬件,比如CX7等等子元器件。现在每一个元器件都开始“亮红灯”,就是指大缺货、大涨价,DDR4的DRAM价格,是一年前的10倍。现在CX7也在缺货、电源供应和CPU也开始在缺货,各个供应链都开始缺货。我看到OpenClaw的起来、agent起来、多模态的起来以及编程的起来,刚好这三个是一个完美的风暴,所有的供应链就跟不上这个节奏。

Alex对我们表示,最近全球地缘政治,特别是中东的波动让能源价格异常波动,这也给全球AI数据中心的能源供应带来了更高不确定性,但能源这一部分大概会占到token定价的10%左右,而让token价格高居不下的,还是供应链短缺带来的价格飙升,特别是内存方向。

Alex Yeh

GMI Cloud创始人

我觉得影响最大的还是服务器系统的内存的涨价,从而造成token价格的增加。

而我们也在会展现场采访到了内存市场的决定性大赢家三星,他们认为,紧缺的状态至少要持续到27年年底

Candice Hu

Samsung Memory产品营销经理

这个是我们从来没有看到过的supercycle(超级周期),之前几年也有,但是那个时候更多是手机、电脑、互联网端的需求,但是今年整个就是AI。我们看到2026年已经是完全的售罄,2027年我们认为也还是会在紧缺的状态。产线我们都已经在投入了,但是大概率也要到2028年才能有实质性的这么一个上涨。

这个超级周期,很多的采购方都是云端、数据中心,他们对于成本的敏感度是比较低的,也比较愿意花钱去买。所以整个内存的短缺或者是需求量,我们认为在接下来两年还是会比较强的。

以上就是我们这次的参会体验啦。给我的感觉是,随着Agenic时代来临,非常多的范式会发生变化,有机遇也有挑战,而GTC会依然是AI行业的指路标,我们也会为大家继续关注以上我们的提到的这些产业和方向。不知道在一年后的GTC大会,我们的世界会被AI加速多少呢?

本文来自微信公众号“硅谷101”,作者:硅谷101,36氪经授权发布。

 

+1
27

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

官宣:合壹新能完成数亿元A+轮融资!

2小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业