80%的钱流向AI,但谁来买单?
钱正在以一种人类商业史上罕见的速度涌入AI赛道。
2026年第一季度,全球风险投资总额飙升至约3000亿美元,创下历史最高纪录,80%流向了AI公司。
其中,三笔超级融资轮就拿走了大头:
OpenAI、Anthropic、xAI三家AI公司,合计融资1730亿美元,占当季全球风投总额的近六成。
在全球范围内,资本从未如此狂热地涌入一条单一赛道,而这些钱几乎流向了同一个目的地:算力基础设施。
据The Information报道,Anthropic和OpenAI的合同,已经占据了亚马逊AWS、微软Azure、谷歌云三大云平台订单积压的一半以上。
但在算力这个目的地,横着一个全行业都在回避的问题:
谁在为AI产业堆积的万亿级算力订单最终付钱?
AI之争正在变重
过去两年,AI行业讨论的核心是模型能力,但现在牌桌上的筹码变了。
头部AI玩家争的,是谁拥有更多数据中心、更长期的芯片供应、更稳定的电力、更低的推理成本。
最典型的信号,是模型厂商开始向上游抢算力。
5月7日,Anthropic宣布与SpaceX达成协议,租下Colossus 1数据中心全部算力容量。
该超算集群搭载约22万块英伟达GPU,将在一个月内为Anthropic新增超过300兆瓦算力,直接刷新行业扩容纪录。
这不是按需租赁,而是整栋独占。
Anthropic的真实处境是,它已经与亚马逊、谷歌、微软等签下了一大把长期算力合同,但全部要等到2026年底至2027年才交付,Colossus 1是少数能在一个月内交付的选项之一。
因此,Anthropic选择了一个更贵、更快的方案,而不是一个更便宜、更慢的方案。
这意味着,在算力窗口期面前,成本不再是首要考量,时间才是。
OpenAI布局则更早。
它与软银、甲骨文共同发起的“星际之门”项目,总投资计划5000亿美元,目标在全美建设10GW容量(约为Colossus 1的33倍)的AI数据中心。
2026年4月,OpenAI宣布该计划已提前数年完成原定目标,目前已签署总计10GW的AI算力合同。
种种动作表明,算力已经成为模型公司的战略资产。
大模型公司正在从软件公司,变成一种越来越接近云厂、电厂和半导体公司的重资产玩家。
与此同时,云厂商也在向下游打包生态。
过去,云计算厂商之间主要拼的是IT基础设施。
但AI时代,云厂商想卖的已经不只是GPU实例,而是一整套“算力+芯片+模型”的组合。
2026年4月,谷歌宣布向Anthropic投资最高400亿美元。
但投资只是交易的前半句,后半句是:
Anthropic承诺未来五年向谷歌云支付2000亿美元,用于采购云服务和谷歌自研TPU芯片算力,约占谷歌云披露收入积压的40%以上。
与英伟达GPU不同,TPU是谷歌自研AI芯片。
围绕它构建的软件工具链,意味着客户一旦接入谷歌云TPU生态,迁移成本极高。
Anthropic与谷歌签署的协议,就锁定了未来数年数的TPU算力产能。
这一连串交易的背后,是一个清晰的战略图景。
谷歌正在把云基础设施、TPU芯片和模型打包成一个整体,面向企业客户提供无法拆分的全栈方案。
在这一趋势下,云厂商也在变重。
过去云厂商卖计算资源,比拼的是价格;现在卖生态系统,比的是谁能让客户再也离不开。
模型公司看起来仍站在聚光灯下,但云厂商正在重新定义舞台本身。
在模型厂和云厂的双重加码下,AI产业更重的一面出现了:资本开支进入军备竞赛级别。
路透社称,微软、Alphabet、亚马逊、Meta四大厂商,预计今年将在数据中心和AI相关基础设施上投入超过6000亿美元。
这个数字代表着什么?
2019年,同样这四家公司,年度资本开支合计约800亿美元。
七年后,这个数字翻了近8倍;而同期,全球GDP增速远没有接近这个量级。
这种增速,已经彻底告别了按利润回报逐步扩大投资的传统商业逻辑。
科技巨头内部为此创造了一个词:战略税。
即不知道具体回报多少,甚至不确定能不能算过账,但不交就会死。
恐惧,而非利润预期,才是这场资本军备竞赛最核心的燃料。
如今的AI竞争,已经变成了一场围绕数据中心、电力、芯片、云合同展开的基础设施战争。
巨头内部的算力圈地运动
当模型厂商和云厂商两股力量同时向基础设施逼近,它们开始撞向彼此。
翻开Anthropic的投资与战略合作名单,能看到几乎所有硅谷巨头的名字:谷歌、亚马逊、英伟达、微软。
四家互为竞争对手的公司,同时出现在同一家模型公司的股权结构里。
放在五年前的硅谷,叫利益冲突。放在今天,叫行业常态。
最戏剧性的一幕是微软。
它手握OpenAI最大外部股东的身份,转头又向Anthropic承诺最高50亿美元投资,同时接受Anthropic向Azure采购300亿美元算力。
一家云厂商,同时押注两家彼此竞争的头号模型公司。
一位分析师这样概括背后的逻辑:“这是一种‘输不起就买进来’的投资策略。”
谷歌的处境更微妙,Anthropic的Claude在企业市场,直接与谷歌的自研模型Gemini正面竞争,而谷歌却是Anthropic最重要的金主之一。
这种情况适用于亚马逊。
它一面投资Anthropic,一面在全球云市场和自己最大的对手们争夺同一个客户。
在AI产业的资本版图里,竞争对手相互搏杀、泾渭分明的边界正在消失。
这背后都是同一个交易结构在起作用:
巨头投钱给模型公司,模型公司用同一笔钱向这家巨头采购算力。钱从一个口袋出来,转了一圈,又流回同一个口袋。
例如,谷歌投钱给Anthropic,Anthropic用这笔钱向谷歌采购云服务。谷歌云收入因此暴涨,Alphabet估值获得支撑,继而有能力进行下一轮投资。
亚马逊与Anthropic的条款也如出一辙:
承诺投资上限250亿美元,作为对价,Anthropic承诺未来十年向AWS技术和算力投入超过1000亿美元,并锁定最高5GW的Amazon Trainium相关容量。
微软与OpenAI的关系更不必说,多年累计投资已超数百亿美元,而OpenAI几乎全部的算力需求都运行在Azure之上。
一个自我强化的循环由此形成,钱在一个封闭系统内部流转,从未真正离开。
至此,一幅完整的图景浮现出来:
模型厂商和云厂商在变重的过程中,通过投资和采购的相互锁定,正在编织一张你中有我、我中有你的利益网。
它们的首要目标不是短期盈利,而是在算力成为稀缺资源的窗口期内,尽可能多地圈占未来基础设施的垄断地位。
这是一场巨头体内的算力圈地运动,但它的最终账单,至今没有明确的下落。
谁来买单?
如今这个循环的体量,已经大到难以忽视。
据The Information报道,OpenAI和Anthropic两家模型公司的合同,已占据四大云平台超2万亿美元订单积压的一半以上。
问题在于,如果买算力的钱和卖算力的钱来自同一批人,那这笔账最后到底是谁在付?
有分析师直言,科技巨头报表上的增长,相当大一部分并非来自终端客户,而是“循环交易”,即靠资本体内流转堆出来的数字。
IMF已发出警告,认为这种循环式AI融资可能催生系统性风险。
更紧迫的是,即便抛开这些质疑,最基础的商业算术也已经算不过来了。
GitHub Copilot就是一个典型例子。
早在2023年,据华尔街日报披露,微软为每位用户平均每月倒贴超过20美元,重度用户亏损高达80美元。
2026年4月,GitHub宣布从6月起全面转向按实际使用量计费。
过去十年,科技行业的增长公式是,补贴换规模,规模换垄断,垄断换盈利。
但在AI的算力消耗面前,这条公式失效了。
推理成本会随着使用量同步增长,并不会因为用户数量增加而摊平。
OpenAI的账本更难算。
ChatGPT周活9亿,付费用户超5000万,但付费率仅5.5%。
这意味着每100个用户中近95个完全免费,而OpenAI必须为每一次免费推理承担算力成本。
Sam Altman早在2025年1月就公开表示,即便定价200美元的Pro订阅依然亏钱。
用户越多,亏损越大,这是一个与商业常识逆向运行的魔咒。
据媒体援引市场估算,预计OpenAI 2026年亏损140亿美元,到2028年累计亏损或达440亿美元。
相比之下,Anthropic画出了一条不同的曲线。
约80%收入来自企业客户,公司一季度年化收入同比增长约80倍,在企业生成式AI市场份额上领先OpenAI。
部分市场分析认为,Anthropic由于收入结构更偏企业侧,可能比OpenAI更早接近现金流转正。
但无论是OpenAI的C端规模,还是Anthropic的B端收入,都绕不开同一个问题:
AI公司不能只证明有人用,还必须证明用的人越多、单位经济模型越好。
这正是当前AI繁荣最脆弱的地方。
如果Agent真的进入企业核心流程,云合同、数据中心和芯片采购会变成下一代基础设施投资。
但如果企业ROI兑现慢于预期,或者AI公司只能继续靠融资补贴推理成本,那么今天堆积起来的算力订单,明天就可能变成一条很长的风险链。
OpenAI首席财务官曾发出警告,如果营收增长不能加速,公司可能难以履行未来的数据中心合同。
时间正被拖入两种叙事之间的裂缝,万亿资本仍在涌入,万亿级付费意愿却远未出现。
但在2026年5月的时间点上,没有人在讨论这种断裂。
所有参与者都在加速推进这个循环,毕竟谁也不敢停下来。
本文来自微信公众号“世界模型工场”,作者:世界模型工场,36氪经授权发布。















