黄仁勋:家用 240W,这才是交给马斯克的“第一台 AI”
2025 年 10 月 15日,英伟达 CEO 黄仁勋亲手把一台小巧得像纸质书的设备,交到了马斯克手里。
地点在德州,星舰发射基地。
他说:“想象一下,把最小的超级计算机,放在最大火箭旁边工作。”
这并非一次普通的设备交付,而是一场隆重的仪式。在工程师们的夹道欢迎中,马斯克郑重接过这台名为 DGX Spark 的机器。
与此同时,全球另一端,一场规模空前的收购刚刚完成: 贝莱德、微软、英伟达联合组成财团,以 400 亿美元,收购了全球最大数据中心运营商之一 Aligned。 这笔交易背后,是 AI 产业疯狂扩张的底层共识:算力,是核心资源。
但就在资本大举押注 5 吉瓦级别的“云上战场”时,黄仁勋悄悄打开了另一扇门。
DGX Spark不是更大的GPU,也不是性能最强的主机。
它能本地跑2000亿参数大模型,接入戴尔、联想、惠普的桌面系统,支持Ollama、Roboflow、LM Studio运行私有模型。
它代表着AI正从云端中心走向个人边界,不再只是建在远方的基础设施,而是第一次真正装进了你的桌面。
这台1.2公斤的超算,它的意义远不止于一个产品发布。
因为真正重要的,不是他把一台 AI 超算交给马斯克。
而是他把整个 AI 的未来方向,交到了我们每个人手上。
第一节
第一台,离你最近的AI设备
“我们第一次把 AI 超算,带到了每个人桌上。” 黄仁勋说这句话时,不是在描述一个未来愿景,而是手里拿着一台真正可以拎起来的机器。
这台机器叫 DGX Spark。
只有一本书的大小,重1.2公斤,功耗只有240瓦,插在普通插座上就能运行。 它能做的事,却是过去要放进一个大型数据中心,甚至需要几百千瓦电力才能完成的。
它可以在本地运行 2000 亿参数的大模型。完全不用连云。你在办公桌上就可以训练、微调、部署 AI 应用。
黄仁勋在早前的发布会上连用了几个 “你”,这是他特意想强调的事情: AI 不该只是少数公司的特权。它该像手机、笔记本电脑一样,人人都能拥有。
过去,AI 通常是远程调用的:
想运行一个大模型,你得连上 OpenAI 或 Anthropic 的云端
想让 AI 看图、听声、帮你写东西,你得上传数据、交给别人处理
AI 的“智能”,本质上是在“别人的电脑”上完成的
而 DGX Spark 改变的是这一点:这是我们第一次,把真正的 AI 能力,打包进一台随时可用的个人设备。
Spark 内部搭载了英伟达最新一代 GB10 Grace Blackwell 芯片, 配有 128GB 统一内存,可以支持图像生成、语音识别、本地问答、搜索、写作、编程、推理等复杂任务。 这不是一个“更小的GPU”,而是一整套 AI 能力打包好的工具箱。
为什么这台机器特别?
黄仁勋没有讲参数,而是描绘了一个画面:想象一下,一个艺术家、一个设计师、一个程序员,在办公室、在书桌前,就能用这台机器做他们想做的事。
这也解释了,为什么惠普、戴尔、联想、华硕这些传统 PC 厂商,会在第一时间全线接入 Spark 架构。 因为这不再是“企业用AI”,而是“人人都能用AI”。
这不只是一台机器,它标志着一件事的开始:
AI,第一次,离我们那么近。
第二节
不是“交付模型”,而是“交出火种”
很多人以为,DGX Spark 是一台新的计算设备。 但黄仁勋本人并不是把它当作一台“新品”在介绍。
他把这次交付称作:
像把“火种”交给每一个需要它的人。
这次交付的现场,也确实像一场“点火仪式”。
德克萨斯州,SpaceX星舰发射基地。
黄仁勋拎着 Spark 穿过火箭工厂,在一群穿工装的工程师之间走过。 马斯克出现在餐厅里,正给员工和小朋友拆甜点。 见面后,他亲自带领黄仁勋参观火箭工厂,并在此笑着接过了对方递来的机器,在场人员的掌声见证了这次实打实的亲手交付。
这不是第一次。
黄仁勋还记得 2016 年把第一台 DGX-1 超算交给 OpenAI 时的情景:
“那时我像外卖员一样把机器送到旧金山,客户是一个叫 OpenAI 的非营利组织。那台机器,就成了他们训练 GPT 的起点。”
这次是第二次。但意义已经完全不同。
第一次,AI 刚刚起步。 第二次,AI 开始走进每个人的日常。
他没有谈芯片频率,也没有提算力跑分。 他强调的是一个场景:
“这台机器,就像你身边的助手,等你发出第一个问题。”
英伟达这两年正是在做这样的转变。
他们不再只是交付芯片,而是交付能立刻用起来的能力。你打开机器,就能运行图像生成模型FLUX.1,可以用它做视觉搜索代理,也可以部署自己的问答机器人、语音助手、写稿工具。
“它不是工具箱,而是火种。未来每个开发者、创作者、公司员工,都能点燃属于自己的 AI。”
我们常常说 AI 进入千行百业,但过去大多数情况是你必须等别人提供服务、开API、放模型给你用。你只是个“用户”。
但当DGX Spark被一个人亲手拿到、摆在桌上、插电开机、自己训练模型的那一刻开始,角色就变了。
你从使用者,变成了“点火的人”。
重要的不是体积缩小,而是 AI 终于从云端走进了个人手中。
第三节
从1GW到240W,靠三件事降下来
过去你要用一次大模型,背后可能要调用整整一个数据中心。 从供电、散热,到维护和调度,AI 成本高得惊人。
一台顶级训练服务器,功耗能达到 10 万瓦, 一个超级工厂,轻松就突破 1 吉瓦(10 亿瓦), 相当于几百万家庭同时开灯开空调,约等于一座小城市的用电量。
但现在,一台 240 瓦 的桌面设备就能运行起大模型。 而且不需要排队、不需要云服务费用,也不需要交出数据。
这个转变不是突然出现的,它背后有三件关键的事,黄仁勋说得非常清楚。
第一件事:把整套AI流程放进一个设备里
黄仁勋提到:
“我们不只是提供芯片,而是从芯片、到编程语言、到预训练模型,一整套打包。客户插上电源就能用,不需要自己组装。”
这就像早期电脑需要自己组装主板、内存、硬盘,而现在你买的是开箱即用的笔记本。
Spark的最大变化,就是把运行AI所需的全部组件,包括芯片、内存、模型、软件工具和微服务,全都提前集成好。 你拿到手就能用,就像现在你打开手机就能拍照、打车、聊天一样。
这大大减少了搭建AI 的成本。
第二件事:效率高,才是真的便宜
AI 投资不能只看性能,要看单位能耗的收益产出。如果你们比别人节电3倍,客户的利润就多3倍。
什么意思?
不是谁的芯片快就好,而是谁在相同电费下,干的事更多。
英伟达从芯片到组网技术都做了优化, 让DGX Spark能用240瓦跑出远超以往的数据效率。 而且设备小,几乎不需要额外的冷却系统,连散热器都可以简化。
这就意味着:
- 个人买得起
- 公司部署得快
- 不再依赖专业机房
- 成本从“千万级”拉到“万级”甚至更低
第三件事:人人都能接入这条链路
以前部署 AI 需要非常复杂的环境:云服务账户、海量远程算力、安全权限设置、多团队协作和审批流程。
但现在,从戴尔、联想到惠普,几乎所有PC大厂都接入了Spark架构,只要你用的是这些机器,就能直接运行Spark兼容的模型。
英伟达还预装了完整的AI软件栈:包括常用的训练工具、模型接口和部署环境。 这就像过去开车需要考驾照,而现在坐网约车,点一下就能走。
AI 门槛第一次降到了点开就能用的程度。
黄仁勋用一句话总结:
“不是客户在等 AI 变便宜,而是我们要让 AI 变得随手可得。”
从中心化部署,到终端可用,从千瓦级设备,到百瓦级桌面, DGX Spark 的意义不只是能用,而是谁都能用。
这才是 AI 成本真正打下来的关键。
第四节
AI主权不只是国家的,也是个人的
在以往的 AI 布局里,讨论“主权”,往往意味着国家层面的竞争。
比如英伟达的芯片出口限制、各国抢建AI大模型、政府扶持本地算力平台…… 这一切的核心都是AI 不能全靠进口,要有自主能力。
黄仁勋也表示:任何国家都不应完全外包国家数据,再进口智能。即便可以从外部买技术,也要保留自己的AI训练和部署能力。
但他也补了一句:
不只是国家需要主权,每家公司、每个人也需要。
这背后的问题是:谁拥有数据,谁就拥有智能。
AI 模型要不断学习,而训练数据的选择,决定了它最终的输出能力。 过去的大模型,比如 GPT、Claude、Gemini,虽然功能强大,但都是别人训练的。你在使用它们时,其实是在调用别人的智能系统。
而 Spark 的出现,改变的就是这一点:你不再只是借用,而是可以自己训练、自己部署,甚至自己定制模型。
这也是为什么黄仁勋不断强调:
“企业不能只依赖外部AI服务,那会让专有数据变得脆弱。未来每家公司都应该有自己的AI员工。就像HR部门负责人类员工一样,IT部门要负责招聘、训练、管理数字员工。”
这不只是比喻,背后已经有完整工具链支持:
英伟达与 智能数据基础架构企业 NetApp 合作的 AFX 架构,让企业能直接把自有数据(比如PDF合同、设计图纸、实验数据)转化为AI能理解的语义素材,接入模型做出回答、生成、分析,全过程都在公司内部完成,不出门、不上传、不外泄。
更关键的是,这种私有 AI 能力不再是大企业的专利。
个人开发者也可以在 Spark 上部署本地模型,不需要上传数据、不开API权限、也不受平台接口限制。你只需要一台机器,一些资料,一点耐心,就可以拥有一个专属的AI助手。
过去大家把 AI 看成是个远程工具,连上云、输入指令、等它回复。但未来,AI将成为你身边的伙伴,理解你的语言、熟悉你的需求、保护你的隐私。
这种转变赋予了AI主权新的含义:它不只是国家的底线,更是每个人的选择权。
第五节
桌面革命之后,AI应用生态全面重排
过去十年,AI应用几乎都部署在云端:
聊天机器人,嵌在网页或APP里
代码助手,要装在浏览器插件里
视频生成,得排队等待服务器渲染
这些服务虽然强大,但背后逻辑是统一的:用户连接服务器→提出问题→远程计算→接收结果。 用户始终是“使用者”,不是“参与者”。
但从 DGX Spark 开始,这种关系正在改写。
AI 不再远在云端,而是直接运行在你的桌面上。
英伟达在发布 Spark 时特别列出了一批实际应用场景:
- Ollama:可在本地运行开源大模型(如Mistral、Gemma),不连网也能对话
- Roboflow:训练视觉识别模型,只需拖入图像就能快速微调
- LM Studio:本地问答机器人搭建平台,支持长文档处理与定向知识上传
- NYU实验室:利用Spark在校园本地训练隐私敏感AI,不依赖云服务
- Zipline无人机:在Spark上进行边缘计算与任务推理
这类应用正在迅速兴起,它们的共同特征是:不需要远程连接,不需要云端调用,不需要大模型授权,用户可以自定义、修改、二次训练。
也就是说,AI第一次像App一样,变成你自己的东西了。
这带来一个重大变化:入口被重排了。
过去是模型厂商定义能力,用户排队调用,软件开发者只能套用别人家的API。 现在是谁先抢占本地体验,谁就变成新的入口。
生成式计算,正像搜索、操作系统、浏览器一样,变成一种新的入口形态。以Perplexity为例,你不是点开网站检索已有信息,而是直接生成答案。未来不再是你问它答,而是它先理解你,主动提供帮助。
这背后意味着什么?
不是谁模型大谁赢,而是谁最先出现在用户开机后的第一个界面,谁就成了新的 AI 起点。
这也是为什么Spark的发布,不只是一台设备的事。
它背后带起的,是一个新的生态:
创作者可以本地跑模型剪片、生成音乐、做内容分发。企业可以本地部署AI员工协助写文档、整理数据、自动回复客户。开发者可以定制个人语义搜索工具,不再被平台封口或限速。教育机构可以给每位学生配置专属AI辅导,数据不出校门。
在这场本地化浪潮中,真正具备竞争力的,不是谁技术领先三个月,而是谁真正走到了桌面,走到了人前
Spark 的意义不仅在于技术突破,更在于它代表了 AI 发展的新方向:从云端垄断到个人掌控,从远程服务到本地伙伴。
这场入口重排才刚刚开始。
结语
不是AI变小了,是它终于触手可及了
240瓦,1.2公斤。
这可能是 AI 历史上最重要的数字。
不是因为它代表着性能突破,而是因为它标志着一个时代的开始。AI终于从远方的工厂,走进了每个人的书桌。
当黄仁勋把这台机器交给马斯克时,他交出的不只是一台设备,而是 AI 发展的新起点。
第一台真正属于个人的AI。 现在,它已经站在你面前。
所以问题变了。
不是 AI 能做什么,而是你想让它为你完成什么。
原文链接:
https://www.youtube.com/watch?v=m1wfJOqDUv4&t=13s
https://www.youtube.com/watch?v=dBsrx5I9egQ&t=1s
https://blogs.nvidia.com/blog/live-dgx-spark-delivery/
https://www.techspot.com/news/109852-jensen-huang-hand-delivers-nvidia-dgx-spark-desktop.html
https://www.pcgamer.com/hardware/processors/imagine-delivering-the-smallest-supercomputer-next-to-the-biggest-rocket-jensen-delivers-a-dgx-spark-to-musk-at-spacex-facility-but-some-think-the-nvidia-launch-is-little-more-than-a-pr-stunt/
https://www.pcguide.com/news/nvidia-ceo-jensen-huang-delivers-worlds-smallest-ai-supercomputer-to-elon-musk-at-spacex-hq/
https://fortune.com/2024/02/22/jensen-huang-elon-musk-openai-first-ai-supercomputer-sam-altman/
本文来自微信公众号“AI 深度研究员”,作者:AI深度研究员,编辑:深思,36氪经授权发布。