马斯克结盟Anthropic,标志着大模型战争正式进入“重工业时代”
周四凌晨,Anthropic宣布与SpaceX达成算力合作,获得了超过300兆瓦算力。但这件事的底层逻辑,绝大多数人都没看懂。
开发者首先注意到的,是Claude限额翻倍、高峰期限制取消。这当然值得高兴。但真正要紧的信息藏在另一条新闻里:xAI此前囤积的55万块GPU,利用率仅有11%。同一时间,彭博社披露SpaceX计划斥资最高1190亿美元,建设代号Terafab的2纳米芯片厂。紧接着,马斯克确认xAI将解散并入SpaceX,成立SpaceXAI。
三件事并行浮出水面,指向同一个方向。
过去两年,大模型的竞争看起来像一场算法天才的智力竞赛。参数规模、基准测试得分、多模态能力,每一条战线上都有新纪录被刷新。但进入2026年,底层逻辑已经变了。算力堆砌走到物理学和工程学极限之后,竞争开始从软件算法层加速下沉,变成一场关乎能源、硬件调度与底层半导体制造的重工业之战。
一言以蔽之,Anthropic联手SpaceX这件事标志着,大模型战争正式进入“重工业时代”。
所谓“AI重工业”,意味着竞争锚定在三个更坚硬的东西上:能源利用率、硬件调度效率、底层半导体制造能力。它们的共同特点是不受摩尔定律庇护,也无法靠融资和挖角快速解决。它们需要时间、土地、电力、水和数十年的工艺积累。
01 11%
要理解马斯克这一系列激进动作的根源,得从11%这个诡异的数字开始。
不论国内还是海外,每家AI企业都在持续抱怨算力不足。而坐拥Grok的xAI,竟有如此巨量的闲置算力。
过去一年,xAI在AI基础设施建设上速度近乎疯狂。部署在孟菲斯的Colossus超算集群,仅19天就完成首阶段投用,累计囤积约55万块英伟达H100和H200 GPU。放在全球算力储备榜单上,这是一个极具压迫感的体量。
然而,买到算力不等于拥有算力。
衡量AI算力效率的核心指标叫MFU,模型浮点运算利用率。xAI的MFU仅为11%。这意味着集群理论上能产生100份训练吞吐量,其中89份被白白浪费了。
这当然不是马斯克和他组建的高精尖团队的过错,而是整个AI基础设施领域面临的普遍性技术鸿沟:超大规模集群下的软件堆栈与网络通信瓶颈。GPU数量有限时,问题并不棘手。一旦达到十万甚至数十万级别,系统复杂度便开始指数级攀升。卡间数据同步、网络延迟、故障节点恢复、数据读写等待,每一环都吞噬时间。即便部署最顶级的InfiniBand网络也无济于事。
这也是国内月之暗面、DeepSeek,以及海外Google等AI企业多年来坚持在底层架构上持续投入的主要原因。缺乏深厚的底层架构优化能力,堆砌的硬件就只是一堆耗电的废铁。
对于重资产模式,低利用率意味着硬件回本年限被无限拉长,而技术淘汰年限在加速缩短。这是毁灭性的。数十万块顶级GPU,且不说高昂的采购折旧成本,单是液冷和电力系统的持续运转,就足以产生天文数字的账面损耗。
这种超大集群导致的“算力消化不良”,迫使马斯克必须在商业模式上快速做出调整。
02 变脸
面对如此庞大的闲置资产,将部分算力剥离、变现,自然成了最符合商业逻辑的止损方案。而这,也是Anthropic与SpaceXAI达成22万块GPU合作协议的根本背景。
一个颇为讽刺的事实是,联手双方此前的关系谈不上好。xAI平台上,马斯克上次提及Anthropic还是毫不留情的攻击。但在商业利益面前,双方瞬间握手言和。
对Anthropic而言,这是一场久旱逢甘霖的战略补给。此前因算力不足,它选择了给模型降智、限速,甚至取消了低价档位订阅。作为与OpenAI抗衡的全球第一梯队模型企业,Anthropic虽已拿到亚马逊和谷歌的资金与算力支持,但在追求更高阶模型的过程中,对独立、大规模的顶尖算力仍然极度渴求。
获取Colossus 1全部算力后,Anthropic的反应极其务实且迅速。Claude Code限额翻倍,高峰期限制取消,Opus模型API额度大幅提升。对B端和C端市场而言,算力直接转化为用户体验的提升,这就是从OpenAI手中抢份额的利器。
对马斯克来说,这笔交易同样精明。
通过将GPU集群租赁给Anthropic,SpaceXAI事实上扮演了类似AWS和微软Azure的底层云服务商角色。这一手不仅有效对冲了硬件贬值和闲置成本,还将前沿AI算力转变为一项能够产生稳定现金流的基础设施生意。在自家Grok团队的软件能力完成追赶之前,让顶尖硬件在别人手里满负荷运转,远比放在自己机房里闲置理智得多。
而马斯克心里更清楚的是,支持Anthropic,客观上对打了很久官司的老对手OpenAI形成了有力牵制。
03 上天
将xAI解散并入SpaceX,折射出马斯克认知体系的变化。
前沿AI的研发已经告别了过去那个纯粹的软件和算法命题,变成了一个庞大的系统工程命题。规模化法则仍在生效,全球大模型参数量向十万亿级别迈进,训练和推理所需算力呈几何级数增长。地球上最先进的科学要取得进展,代价就是对物理资源的极限挤压,电力、土地,甚至水。
目前,美国多家科技巨头都在为数据中心电力发愁。Anthropic在官方公告中甚至承诺会“覆盖因其数据中心导致的美国消费者电费上涨”。AI的能耗已经足以触及社会公共资源的敏感神经。
最早布局太空算力的SpaceXAI在公告中也直言不讳:训练和运行下一代系统所需的算力,正超出陆地电力、土地和冷却系统在有效时间内的承载能力。
将xAI并入SpaceX,底层逻辑就是要利用SpaceX在全球独一无二的工程整合能力与航天运输能力。太空拥有无尽的太阳能,真空环境结合背阴面的极低温度,又能直接解决地球上最棘手的数据中心散热问题。SpaceX星舰计划带来的低成本、高频次大质量入轨能力,便理所当然地成为实现这一构想的唯一现实依托。
解散独立的xAI,本质上不是收缩,而是将AI的底层基础设施与航天工程进行深度的物理与组织绑定。
04 闭环
借出算力解决眼下的财务压力,探索太空算力押注未来的物理空间,这还不是全部。
名为Terafab的晶圆厂项目,是马斯克试图在整个科技产业链上游完成的终极闭环。
全球AI企业为算力叫苦连天,核心原因在于整条产业链的产能被极少数企业卡住了脖子:英伟达掌握芯片设计与CUDA生态,台积电垄断先进制程的制造产能。而马斯克在半导体领域的需求几乎是全方位的。除了AI模型训练,特斯拉的自动驾驶、Optimus人形机器人以及SpaceX的航天器,都需要海量定制化的先进制程芯片。依赖外部供应商,等同于必须忍受漫长的交付周期和高昂的溢价。
Terafab初期计划投入550亿美元,如今最高达到1190亿美元,目标直指2纳米工艺,规划每年对应1太瓦电力的算力产能。马斯克给英伟达发出信号的同时,也直接向台积电的代工霸权发起了正面挑战。
不过,业界普遍持怀疑态度。再有钱也只能买到ASML的光刻机和应用材料公司的设备,而这只是第一步。良率爬坡和工艺磨合,往往需要数十年的积累。但无论如何,这种“第一性原理”驱动的垂直整合尝试,将AI巨头们试图挣脱现有半导体供应链束缚的强烈意志暴露无遗。
英伟达CEO黄仁勋在祝贺SpaceX与Anthropic合作时说了一句:“AI的未来在英伟达。”
马斯克的一系列操作却给出了另一种剧本:只有同时掌握高效的硬件调度、获取廉价而可持续的能源、在底层芯片制造上实现自主可控,才能主导AGI的星辰大海。
算力已经成为新时代的石油。单纯的算力囤积者如果缺乏强大的软件消化能力,最终只会被高昂的成本反噬。AI模型的持续进化,正在倒逼基础设施突破地球的资源限制,重塑全球半导体制造的格局。算法固然重要,但在物理定律和商业规律面前,坚实的重工业才是支撑AI发展的基石。
本文来自微信公众号“硅基星芒”,作者:思齐,36氪经授权发布。















