黄仁勋砸千亿兆瓦算力,押注下一个“Open AI”

AI前线·2026年03月11日 18:38
英伟达押注新AI实验室

一个还没拿出惊艳产品的初创公司,竟然接到了英伟达送来的 “泼天算力”?

这一次,英伟达把投资触角伸向了这家还名不见经传的“新 AI 实验室”。

3 月 10 日,前 OpenAI 高管 Mira Murati 宣布,她创办的Thinking Machines Lab,与 NVIDIA 达成一项长期战略合作。

按照协议,英伟达将为 Thinking Machines Lab 提供至少1 吉瓦的下一代 NVIDIA Vera Rubin 系统,用于前沿模型训练和平台建设,支持其大规模交付可定制的 AI 解决方案;而 Thinking Machines Lab 则将围绕 NVIDIA 架构设计训练和服务系统,并扩大企业、研究机构和科学界对前沿人工智能及开放模型的访问。这套系统预计将于明年初正式部署。

简单来说,英伟达提供的是下一代算力底座,而 Thinking Machines Lab 则在这套底座上打磨训练体系、推理系统和模型能力。这不是一笔普通的算力采购,而是资本、芯片和技术路线的一次深度绑定。

更值得关注的,是这笔合作的规模

1 吉瓦是什么概念?1 吉瓦等于 1000 兆瓦。

根据全球最权威的能源政策与数据机构之一 IEA 显示,普通数据中心通常只有 5 到 10 兆瓦,大型 hyperscale 数据中心通常在 100 兆瓦以上。而 Thinking Machines Lab 这次拿到的是接近 10 个 100 兆瓦级大型数据中心的总量级

有业内人士测算,这个规模足以覆盖约75 万个美国家庭的用电规模,而整体投入成本甚至可能高达500 亿美元

放在今天的 AI 竞赛里,这已经不是普通创业公司的配置。真正接近这一门槛的,往往只有最顶级的 AI 实验室

2025 年 9 月,OpenAI 与英伟达公布的战略合作,共同部署10 吉瓦AI 基础设施,以支撑下一代 AGI 的开发,这是史上空前的算力投资规模,而 Thinking Machines Lab 拿下的量级,已是它的十分之一。横向来看,马斯克在 2025 年末为 xAI 买下第三栋大楼,目标将训练能力推至近2 吉瓦;Meta 在得州推进的新数据中心,拓展目标也在1 吉瓦级

可以说,在算力储备上,这家创业公司已经和巨头站在同一量级

据美国媒体 Axios 推测,如此庞大的算力,不可能只用来做小模型、垂直应用或轻量化工具。它更对应持续的基础模型训练、多模态系统开发、推理平台搭建,以及面向企业和科研机构的大规模服务能力。

而在 Mira Murati 的推特上,也能找到一些“蛛丝马迹”,她点出一个关键词“协作式人工智能”

所谓“协作式 AI”,就是强调与人共同完成任务、能按个人或机构需求灵活适配的多模态系统。

作为 Open AI 人才流向中最显眼、最集中的新去处之一,Thinking Machines Lab 从诞生起就自带光环。

这家公司成立于 2025 年 2 月,据路透社报道,刚亮相时团队约 30 人,其中至少 20 人来自 OpenAI。成立仅 5 个月,它就拿下20 亿美元种子轮融资,成为硅谷史上最大种子轮之一,投资方名单包括 a16z、英伟达、AMD、思科等巨头。黄仁勋更是直接称其为 “世界一流的团队”。

此次与英伟达的合作,已是英伟达在种子轮之后,再度加码投资 + 绑定算力。这无疑释放了几个信号:

Thinking Machines Lab 正在升级,从一家 “明星创业公司”,走向“前沿模型基础设施玩家”。它瞄准的,不只是应用层的细分赛道,而是下一代前沿模型的核心竞争

而英伟达不只想卖铲子,还想参与建矿了,它希望更深地嵌入下一代 AI 公司的资本结构、算力供给和技术路线图之中。

英伟达的全面布局

如果只把这笔合作理解为英伟达对一家明星创业公司的特殊扶持,可能还是低估了它的意义。

从押注 Thinking Machines Lab,到回看英伟达的整体布局,就能清晰看出这家芯片巨头为巩固断崖式领先所布下的全局棋局。

面对已成型的 AI 巨头,英伟达先是与 OpenAI 达成 10 吉瓦算力合作,共建 AI 工厂,并持续巨额投入;随后又通过微软、英伟达、Anthropic 三方绑定,为 Anthropic 提供下一代硬件、1GW 算力与最高 100 亿美元投资,双方还联合定制模型与芯片架构,实现技术深度锁死。

面对 AI 新势力,英伟达同样全面下注:向 AI 搜索公司 Perplexity 投资 5 亿美元,参投 AI 视频工具 Runway、人形机器人 Figure AI、自动驾驶公司 Wayve 等一众明星项目,几乎覆盖下一代热门赛道。

可以说,英伟达布局逻辑很直白,提前锁定未来大客户,而不是等它们长大再抢单

Thinking Machines Lab 正是英伟达看中的 “超级潜力买家”,它押注的不是某个产品,而是下一个 OpenAI 级别的平台型公司。哪怕这家新实验室目前只有训练 API、研究方向与明星团队,英伟达看重的是其未来长成平台的潜力。越早进入这些公司的资本结构与技术路线,就能越早分享整个生态成长的红利,而不只是单一的芯片收入。

而且,英伟达的 “绑定” 早已不是简单提供算力,而是将客户锁进从芯片、网络、系统软件到数据中心的整套 AI Factory 全栈方案

对英伟达而言,押注 AI 新实验室的意义,不只是提前卖出下一代 GPU,更在于趁这些公司仍处于底层系统搭建阶段,就把自己的架构写进其训练、推理和运维体系。等到模型、集群和服务真正跑起来,客户依赖的将不再只是某一代芯片,而是整套基础设施逻辑,迁移成本也会随之大幅抬升。

黄仁勋在 2026 年 GTC 上曾用一个颇具代表性的框架来解释这种变化。他把 AI 产业概括为一个自下而上的“五层架构”:能源、芯片、基础设施、模型和应用。

过去外界更习惯把 AI 竞争理解为模型之争,但在黄仁勋的叙述里,最底层的能源,才是 AI 基础设施的第一性原理。没有足够的电力、冷却、园区和并网能力,就谈不上后面的芯片集群,更谈不上模型训练和应用落地。

而在最新的长篇博客中,这一判断被进一步推到了产业底层逻辑的高度。黄仁勋的核心意思是:今天的 AI 仍处在极早期阶段。过去几年行业确实已经砸下了数千亿美元,但这些投入更像是在铺设地基,距离 AI 潜力被真正释放,仍有很长的路要走。

他甚至预测,到本世纪末,全球 AI 基础设施支出将达到 3 万亿~4 万亿美元

顺着这套逻辑看,英伟达现在想推进的,已经不只是“芯片公司”的角色,而是更接近AI 工厂总包商

它一边与 OpenAI、Anthropic、Thinking Machines 这样的模型公司深度绑定,一边与 Meta 等科技巨头推进多年期基础设施合作,也与 Lilly 这样的制药企业、以及政府和科研机构推动行业级、国家级 AI 基建。

这里最深的一层争夺,其实不是某一笔订单,而是 标准制定权:未来训练大模型、跑推理、做物理 AI、建设 GW 级园区,默认应该采用什么架构、什么网络、什么供电和冷却方式、什么系统软件栈。谁定义了这套默认方案,谁就不再只是供应商,而是在定义下一代 AI 工厂的入口与标准。

Thinking Machines Lab 的野心与动荡

再看 Thinking Machines Lab,这家公司从一开始切入的,其实就是模型后训练和微调基础设施这层“脏活累活”。

具体来说,它给研究者、开发者留足了自主权,可以自己掌控训练用的数据、算法和训练逻辑,训练出来的模型权重,也可以保存、恢复、下载,甚至发布出去。

而这家公司的核心作用,就是提供一套现成的训练工具,帮大家解决训练过程中最头疼的问题,比如分布式训练、任务调度、资源分配和故障恢复,让开发者不用再费心搞这些“底层基建”,能专心做模型本身。

表面看,它是在帮别人微调模型;往深了看,它真正搭建的是一套面向未来的底座。无论是更大规模模型训练、更复杂的实验流程,还是更高强度的推理需求,最终都要落到这套系统能力上。

而搭建这样的 AI 基础平台,当然离不开超大算力的支撑,这也是它与英伟达展开合作的重要原因。

但或许又有人问了,它从英伟达拿到的 1 吉瓦算力,搞这么大场面,只是为了做这些么?

确实不止如此,我们可以进一步揣测一下 Thinking Machines Lab 的野心。

从公司官网可以看出,这家公司反复强调两件事:

第一,多模态是核心。只有让模型真正具备理解图像、文本乃至真实世界的能力,AI 才可能走向大规模落地。

第二,研究和产品不能分开,研究能否高效推进,最终取决于底层基础设施是否稳定、顺手、可扩展。

如此大规模的算力投入,显然不是为了训练一版模型后就停机,而是为了同时支撑多个层面的任务:前沿基础模型预训练、多模态与大规模 MoE 模型的持续实验、模型后训练与优化、企业客户服务,以及面向科研机构的开放访问。

这也意味着,Thinking Machines Lab 的野心从来不只是做出一个模型,而是想把自己的模型能力、训练能力和服务能力,铺成一张可扩展的分发网络。

如果说过去 AI 竞争比拼的是“谁拥有更好的模型”,那么今天比拼的已经是“谁能同时攥住资本、芯片、供电、园区和系统架构协同”。对于创业公司而言,能和英伟达这样的巨头深度绑定,意味着能获得最稀缺的确定性算力与交付效率。

Thinking Machines Lab 高调亮出 1 吉瓦算力,本质上是在向外界宣告:它不满足于做牌桌旁的旁观者,而是要真正坐上牌桌,与 OpenAI、Anthropic 等巨头正面竞争。

不过,野心越大,组织压力也越大。Thinking Machines Lab 成立仅一年左右,团队就从最初约 30 人扩张到约 120 人。

与此同时,其核心联合创始人集体 “叛逃。2025 年 10 月,联合创始人 Andrew Tulloch 离开公司加入 Meta;2026 年 1 月,两位联合创始人 Barret Zoph 和 Luke Metz 与研究人员 Sam Schoenholz 纷纷回到 OpenAI。

对一家仍处快速扩张期的公司来说,这未必意味着战略失速,但足以说明,它的“全栈野心”正在经受组织动荡的考验。

参考链接

https://thinkingmachines.ai/news/nvidia-partnership/

https://job-boards.greenhouse.io/thinkingmachines

本文来自微信公众号“AI前线”(ID:ai-front),作者:允毅,36氪经授权发布。

+1
19

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

所谓新技术的突破,是让商业先跑,还是让安全先立?

1小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业