英伟达首台DGX GB300,老黄亲自登门送给他
老黄又又又亲自上门送“显卡”了!
首台DGX Station(GB300)送给了卡帕西——这位AI时代的个人开发者代表。
△
注意到没,就在这台“大玩具”上,老黄还附赠了一篇洋洋洒洒的“小作文”:
致Andrej——第一台DGX Station的拥有者:AI智能体时代已经到来,这是一个令人难以置信的里程碑时刻,也让人想起我们一起走过的GTC早期岁月。一路走来,你始终与我并肩同行。
而另一边,卡帕西也在𝕏上对老黄隔空发射爱心,并且透露自己准备用它搭一套个人AI集群,专门拿来折腾各种有意思的实验。
对了,针对老黄提到的“GTC早期岁月”,卡帕西还顺带解惑了一波:
后来的事情大家也都知道了,深度学习革命让英伟达这个“卖铲人”赚得盆满钵满。
所以,老黄这次上门送温暖,原来是来“报恩”的?(doge)
当然调侃归调侃,只需看一眼老黄曾经的上门服务案例,你就知道这背后实则大有文章了。
大约10年前(天哪都10年了),老黄把首台DGX-1送给了彼时还很年轻的OpenAI。而从那时起,深度学习开始真正走向工程化,AI进入“大模型前夜”。
再到近两年,他又分别给奥特曼和马斯克送上首台DGX H200、DGX Spark迷你超级计算机。这里头除了两人“闹掰”得分开送的原因外,背后的信号也很直接——大模型竞赛进入“深水区”,算力正在成为最终胜负手。
然后就是现在,卡帕西这位超级开发者成为老黄新的“座上宾”,这也意味着——
进入智能体时代,个人开发者正在登上舞台中央。
尤其在“龙虾”如此火爆的情况下,这股风潮无疑将更甚。
这次送给了个人开发者卡帕西
书归此次“老黄上门送温暖”事件。
之所以说这更多代表着个人开发者的胜利,主要还是因为卡帕西这个受赠对象,身上的标签实在过于鲜明了。
虽然这是位老朋友了,但咱还是简单回顾下他的履历。
卡帕西(英文名Andrej Karpathy),早年在斯坦福做深度学习研究,后来加入OpenAI成为创始成员之一。
在OpenAI待了一年半左右,被“负气出走”的马斯克挖到特斯拉,负责领导特斯拉自动驾驶系统的计算机视觉团队。
不过在特斯拉干了5年多之后,他又回归OpenAI了。But,这次回去也没待多久,然后就选择出来单干了……
这中间的弯弯绕绕我们不再赘述,只说他最近在干啥、以及留给人的最深印象。
总结起来就是,他正在把AI从“论文”和“大公司”,变成“一个人就能跑起来的系统”。
关注卡帕西个人账号的朋友都知道,这位AI大神近一两年几乎是在反复做三件事:
把最新论文快速复现成可运行Demo
手搓小而精的模型和工具链
搭建能长期运行的Agent系统 (也就是大家口中的“龙虾”)
这些事情也让他逐渐成为众人眼中的个人开发者代表——一个人,就能完成从想法到产品的完整闭环。
而这,恰恰就是当下智能体时代最稀缺、也最具代表性的能力。
再加上他和老黄之前的“私交”(比如前面提到的GTC),此时此刻,卡帕西就成了那个被老黄选中的人。
而要问选中之后干啥?老黄的用意当然是“带货”啊(提前滑跪了)。
由于搭载GB300的DGX Station亮相不多,所以咱也捎带手介绍下。
概括而言,这台机器毫无疑问就是为“龙虾”这样的智能体量身定制的。
别看这台机器长得像个“桌面工作站”,本质上其实是把一整套数据中心级AI算力,压缩进了个人开发者的桌面上。
简单说,DGX Station (GB300)干的事就一件——把原本属于机房的能力,搬到你手边。
它用的是和数据中心同源的GB300架构,相当于你在本地写代码、跑模型,其实就是在“迷你版数据中心”里干活。
748GB统一内存+20 PFLOPS算力,意味着不只是能跑模型,而是可以直接上手折腾千亿甚至万亿参数级别的系统。
更关键的一点是,这套环境不是“孤岛”——你在本地跑通的东西,可以无缝迁移到云端或更大规模的集群里,不需要推倒重来。
所以你会发现,它解决的不是“能不能跑AI”的问题,而是另一个更实际的需求:
能不能让AI一直跑下去。
话说到这里,相信最近已经被“龙虾”360°环绕的大家,已经明白这台设备的定位和作用了。
而当我们把视线再拉远,你就发现老黄在这股“龙虾热”里,还有后手。
除了找“代言人”,英伟达还正在奋力补齐整套Agent基础设施——
从硬件到软件,一个都没落下。
英伟达博客里提到,为了配合硬件(指这次亮相的DGX Station GB300),他们还向OpenClaw项目贡献了一个开源堆栈——NVIDIA NemoClaw。
NemoClaw能让开发者用一条命令,就把一个“随时在线”的AI助手安全部署起来。
它内置了一套面向AI智能体的运行时环境——NVIDIA OpenShell,既负责调度模型与工具调用,也通过沙箱机制保证整个执行过程安全可控。
如此一来,从算力到安装部署,老黄就又把这门“龙虾生意”做成了产业链。
老黄亲自上门送显卡,已成风向标!
实际上,细数老黄为数不多的“上门服务”,你就知道这位算力掌门人的眼光有多毒辣了。
几乎每一次上门背后,都对应着一个清晰的时代信号。
比较早期、也是比较著名的一次,就是10年前送给OpenAI的首台DGX-1(当时马斯克还是OpenAI联合创始人)。
当时OpenAI刚成立不久,办公室里除了挤满一群理想主义者,几乎啥也没有(更别说服务器了)。
而另一边,深度学习革命的暗流已经涌动——只差一股算力把它推到台前。
于是,老黄亲自带着首台DGX-1直接上门了,而且还写下一句话:
为了计算和人类的未来,我送上世界上第一台DGX-1。
虽然这话如今听起来有点“豪赌”的意味,但事实证明,老黄赢了。
尽管很难说清这台DGX-1在OpenAI的发展历程中起了多大作用,但也正是这一滴一毫,最后浇灌出了ChatGPT这颗参天大树。
更何况DGX-1在当时本身就是一款比较领先的产品——它第一次把硬件、互联、软件栈全部打包成一个“开箱即用”的深度学习系统,对提升训练效率至关重要。
所以回过头看,老黄这哪是送机器,分明是在押注一个时代——
一个属于深度革命的时代,一个将深度革命从实验室推向公司工程化的时代。
也难怪后来很多人说,AI大模型前夜,就是从这张照片开始的。
再到2024年,还是在这家公司,老黄二次登门给奥特曼送去了世界首台DGX H200。
这件事发生的背景是——
ChatGPT带来的大模型风暴已经席卷全世界,Saling Law定律正当红,所有人都在卷参数、卷规模。
当然,所有人也缺算力。
而就在这样的时刻,老黄把DGX H200这款当时最新、最强的AI芯片送给了彼时已经被全球公认为最顶尖的AI初创公司OpenAI。并且这一次他写下的话是:
旨在推进人工智能、计算技术与人类的发展。
就怎么说呢?表面上看老黄是“初心不改”,但背后释放的信号却很明确:
在大模型已经进入算力竞赛的时刻,英伟达正在成为底层供给者——强如OpenAI也得靠老黄送补给。
至于2025年他给马斯克送去的DGX Spark迷你超级计算机,这一步其实更有意思。
如果说DGX H200代表的是“把算力推到极致”,那么DGX Spark做的,则是另一件事——
把顶级算力,压缩进更小、更灵活的形态。
老黄上门时就调侃了,“想象一下,把最小的超级计算机放到最大的火箭旁会是什么情景”。
实际上,这句看似玩笑的话已经暴露了老黄的“野心”——
算力不只是用来训练模型,还要支撑持续运行的AI系统。
而马斯克的火箭,其实就是这一设想背后最极端的场景。只要这个都能搞定,其他自动驾驶、机器人、工业系统这些,自然更不在话下。
此时,算力的形态已经开始发生改变,最终的目标就是走进无数个微小的应用场景。
而这一计划放在今天,就是无数个个人开发者的“桌面”(这里可以包含虚实两层含义)。
所以我们终于明白,为什么老黄这次会选中卡帕西了,为什么他会把首台DGX Station(GB300)送到一个“个人开发者”手中。
因为,当算力开始走向分布式、走向本地、走向每一个具体场景时——最先承接这一变化的,不再是庞大的组织,而恰恰是这些能独立完成闭环的个体。
而说到这里,OpenAI研究科学家Noam Brown发起的讨论也似乎有了初步答案。
他曾发帖提问:
为什么在人类历史上——至少自工业革命以来最关键的时期,他(卡帕西)没有出现在一个前沿的人工智能实验室?
答案不言自明——
因为是卡帕西,也因为他是这个时代的“个人开发者”代表。
而且据英伟达透露,除了卡帕西,首批DGX Station(GB300)还即将交付给Matt Berman。
划重点,此人既是一位拥有近60万粉的油管博主,也是一位喜欢自己搞开发的“个体户”。
不过和卡帕西这种有知名代表作的开发者不同,Matt Berman能被“选中”或许主要还是因为他的传播讲解能力。
其真正有影响力的,是一整套教“普通人如何搭AI Agent系统”的方法论。(包括演示如何玩“龙虾”)
而在这个意义上,他更是承担着“个体开发”放大者的角色。
参考链接:
[1]https://x.com/karpathy/status/2034321875506196585?s=20
[2]https://blogs.nvidia.com/blog/gtc-2026-news/#dgx-station
[3]https://x.com/polynoamial/status/2032140505124127192
本文来自微信公众号“量子位”,作者:一水 ,36氪经授权发布。















