黄仁勋:中国市场规模庞大,英伟达正争取Blackwell出口许可

36氪的朋友们·2025年08月28日 20:22
英伟达财报超预期,AI需求激增,Rubin芯片明年量产,Blackwell创收新高,未来市场达3-4万亿美元。

划重点

  • 推理AI和智能体技术使得算力需求激增,预计未来5年AI基础设施市场将达到3-4万亿美元。
  • Rubin芯片已进入晶圆制造阶段,计划于明年大规模量产,将成为英伟达第三代NVLink机架级AI超算。
  • 美国政府开始审批对华销售H20芯片的许可证,英伟达预计第三财季销售可带来20亿至50亿美元收入。
  • AI市场年复合增长率预计保持50%,并推动数据中心和企业级应用的投资大幅增加。
  • 英伟达预计,中国市场2025年潜在营收规模将达到500亿美元,未来增长有望持续,尤其是在AI人才和开源模型的推动下。
  • 英伟达通过开发从GPU到CPU、内存等一系列硬件,逐步转型为全栈AI基础设施公司,提升了数据中心的综合效用和能效。

8月28日消息,英伟达周三公布了截至2025年7月27日的2026财年第二财季财报。财报显示,英伟达营收和盈利均超市场预期,并表示本季度的销售增长将保持在 50% 以上,向华尔街表明对人工智能基础设施的需求没有衰退的迹象。

英伟达股价今年累计上涨了 35%,但在盘后交易中却小幅下滑,因为数据中心的收入连续第二个季度未能达到预期。

财报发布后,英伟达创始人、总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官科莱特·克雷斯等高管出席随后召开的财报电话会议,解读财报要点并回答分析师提问。

精华版:

在最新财报会议上,克雷斯重点介绍了Blackwell、Rubin等核心产品的进展。

其中,Blackwell平台业绩创下历史新高,环比增长达到17%。英伟达已在第二季度正式启动GB300芯片的量产。

目前GB200 NBL系统正被行业广泛采用。OpenAI、Meta、Mastral等头部AI厂商已在数据中心规模部署GB200 NBL 72系统,不仅用于训练下一代大模型,也用于生产环境的推理任务。

新一代Blackwell Ultra平台本季度表现突出,带来数百亿美元的收入。由于采用共享架构、统一的软件和物理规格,主流云厂商向GB300的过渡非常顺利,能够快速构建和部署整机架方案。

七月下旬至八月初,英伟达生产线已完成改造,全面转向GB300量产。目前周产量已恢复至约1000套机架,预计第三季度还将进一步提升。

另一方面,Rubin芯片已进入晶圆制造阶段,仍按计划于明年大规模量产。它将成为英伟达第三代NVLink机架级AI超算,配套供应链也已成熟。

在地缘政治方面,七月下旬美国政府启动了对华销售H20芯片的许可证审批。尽管部分中国客户近期已获许可,但英伟达尚未据此发货任何H20产品。该公司表示,如果相关限制得以缓解,第三季度H20芯片可能带来20亿至50亿美元收入,若订单增加,规模还可扩大。英伟达同时呼吁美政府批准对华销售Blackwell芯片。

采用Hopper架构的H100和H200芯片在第二财季出货量有所增加。英伟达还向中国境外客户销售了约6.5亿美元的H20产品。

在Hopper和Blackwell GPU持续交付的同时,英伟达正全力应对全球激增的需求。推动这一增长的是从云服务商到企业端的大规模资本开支,仅今年全球数据中心基础设施和计算投资额就将达到6000亿美元,两年内接近翻倍。

未来,英伟达预计AI基础设施投资将继续增长,主要驱动力包括:推理AI与智能体对算力需求的急剧上升、全球主权AI建设、企业AI应用落地,以及物理AI和机器人技术的进步。Blackwell已成为AI推理性能的新标杆,而随着推理AI和智能体逐渐渗透各行各业,相关市场正在快速扩张。

以下为问答环节:

问:你们能否从宏观角度谈谈对2026年增长前景的展望,并简要分析网络业务与数据中心业务的发展态势?

黄仁勋:从宏观角度来看,2026年的增长前景主要取决于推理AI和智能体技术的持续发展和应用突破。与早期仅支持单轮问答的聊天机器人不同,如今的AI系统已经能够自主进行研究分析、制定计划甚至调用外部工具。这种具备“长线思考”能力的系统,其输出质量会随着计算时间的增加显著提升。

智能体所需的计算资源与简单问答相比可能有百倍甚至千倍的增长,尤其是在处理复杂研究和理解任务时。因此,智能体技术不仅大幅推高了计算需求,也显著提升了AI的实际效用。随着AI幻觉问题得到有效控制,现在的智能体已经能够可靠地使用工具并执行任务,这也为企业级应用打开了广阔空间。

在智能体和多模态模型的推动下,物理AI、机器人及自主系统领域正在迎来关键突破。过去一年中,AI技术在推理系统和智能体方面取得了革命性进展。为此,我们专门开发了Blackwell NVLink 72系统——这是一个机柜级计算架构,历时数年完成研发。

我们去年实现了从节点级计算(NVLink 8,每个节点作为独立计算单元)到机柜级计算(NVLink 72,整个机柜作为计算整体)的重大跨越。虽然将NVLink 72扩展为机柜级系统极具挑战,但最终取得了非凡成果:实现了数量级的性能提升,显著提高了能效和生成Token的经济性。

展望未来五年,通过Blackwell、Rubin及后续平台的持续迭代,我们将逐步拓展规模达3-4万亿美元的AI基础设施市场。值得注意的是,仅全球四大云服务提供商的资本支出在两年内就翻了一番,达到约6000亿美元水平。我们正处在AI基础设施建设浪潮的起点,技术的快速进步正在推动AI跨行业落地,解决越来越多实际问题。

问:我有两个问题:克雷斯,我想确认关于中国区20亿至50亿美元营收的问题,实现这一目标需要哪些条件?进入第四财季后,该项业务的可持续增长节奏如何?黄仁勋先生,关于竞争格局:你们的多家大客户已经或正在规划多个ASIC(专用集成电路)项目,比如博通曾表示其AI业务明年有望增长近55%-60%。你是否认为市场会更多转向ASIC而远离英伟达GPU?从客户反馈中你观察到哪些趋势?他们如何平衡商用芯片与ASIC的使用?

克雷斯:关于中国区业务,第三财季要实现20亿至50亿美元的营收目标,首先需要市场对H20芯片保持稳定需求,同时我们已获得初步出口许可并确保供应链就绪。不过,最终规模还取决于中美两国政策的进一步明朗,以及客户采购计划的落地。如果有更多客户表达购买意向或获得新增许可,我们有能力快速增产和扩大交付。

黄仁勋:英伟达的GPU与ASIC有根本区别。ASIC领域看似项目众多、初创公司层出不穷,但真正实现大规模量产的产品非常有限。这是因为加速计算是一项全栈系统工程,而不仅仅是硬件设计。AI工厂如今面临的问题规模和复杂性已达到前所未有的水平,涉及从模型架构快速迭代——如自回归、扩散、多模态等各类派生模型——到跨平台兼容性及系统级优化等一系列挑战。

而英伟达的优势在于我们提供了覆盖云端、本地和边缘设备的统一平台,全球绝大多数开发框架原生支持我们的技术,研究人员在开发新模型时也优先选择我们的平台。我们不仅能全面适应不同架构,还提供从数据处理、训练优化到推理部署的全流程加速能力。采用英伟达技术构建的数据中心在综合效用和生命周期价值方面表现卓越。

更重要的是,我们已从一家GPU公司转型为全栈计算基础设施公司。为了支撑Blackwell、Rubin等平台,我们自主开发了包括CPU、高速内存、超级网卡、NVLink交换机和Spectrum以太网在内的全系列技术,以支持下一代AI超级工厂的建设。当前系统工程的复杂程度远超单一芯片设计。

此外,我们的能效和性能在全球处于领先地位。在数据中心普遍面临功耗限制的背景下,“每瓦性能”直接关系到客户的营收能力。正如我常说的:采购越多,增长潜力就越大。我们卓越的“每美元性能”也为客户带来更高的投资回报和盈利空间。

正因为我们始终坚持攻克最复杂的系统级难题,并提供端到端的解决方案,客户才广泛选择与我们合作——这才是英伟达能够覆盖所有主流云平台的根本原因。

问:你们曾提到,到2030年左右,数据中心基础设施支出将达到3-4万亿美元。你之前也曾估算过,到2028年仅计算领域的支出就有望达到约1万亿美元,因此在整个3-4万亿美元的总规模中,计算部分超过2万亿美元,请问这个理解是否正确?你如何看待英伟达在这个市场中的份额?在实现3-4万亿美元规模的过程中,你是否担忧电力等瓶颈因素?

黄仁勋:众所周知,全球最大的四家超大规模企业在AI竞赛的推动下,资本支出在两年内已经翻番,达到每年6000亿美元的水平——而这仅仅是一个开始。到2030年还有五年时间,加上企业本地部署和全球云服务商的持续投资,尤其是全球计算能力分布逐渐向GDP比例靠拢(目前美国约占60%),我们认为整个市场还有巨大的增长空间。在这一进程中,我们的AI基础设施解决方案将占据重要组成部分。

以一个吉瓦(GW)级AI工厂为例,总投资规模约在500亿至600亿美元之间,其中英伟达提供的解决方案约占35%。需要强调的是,我们交付的远不止GPU芯片。过去十年来,英伟达已经转型为一家全面的AI基础设施公司。例如,构建一套完整的Rubin AI超级计算机系统,就需要六种不同类型的芯片协同工作。扩展到吉瓦级别,更需要部署数十万个GPU计算节点和完整的机架基础设施。

正因为我们提供的是全栈式解决方案,所以在未来3-4万亿美元的市场中,英伟达的目标是继续发挥关键作用。你提到的电力等瓶颈因素确实是整个行业面临的挑战。数据中心的能源限制将是长期存在的问题,因此,提升能效——“每瓦性能”——比以往任何时候都更加重要。英伟达的技术直接影响着数据中心的营收能力:每100兆瓦电力所产生的Token数量,直接决定了客户的收入天花板。与此同时,我们优异的“每美元性能”也在帮助客户实现更高的资本回报率和利润率。

总而言之,我们坚信3-4万亿美元的市场预测是符合行业发展趋势的,而英伟达作为AI基础设施的核心提供商。

问:能否谈谈该中国市场的长期前景?你们曾提过全球约半数的AI软件人才集中在那里。英伟达这项业务能实现多大增长?获得Blackwell架构对华出口许可对英伟达有多重要?

黄仁勋:我们预估,英伟达在中国市场的潜在机遇规模今年可达约500亿美元。若能凭借有竞争力的产品成功开拓这一市场,并假设今年实现这一规模,按照全球AI行业的发展速度,预计中国市场的年增长率将保持在50%左右。

中国不仅是全球第二大计算市场,更是AI人才的重要聚集地——世界上约一半的顶尖AI研究者在这里工作,大量突破性的开源模型也诞生于此。因此,美国科技企业参与中国市场具有战略重要性。

中国开发的开源模型在国际上备受认可,例如DeepSeek已在全球范围建立起声誉,通义千问(Qwen)、Kimi等模型同样表现优异。这些支持多模态、具有强大语言理解能力的模型正在推动全球企业加速采用AI技术——越来越多的公司希望构建自主可控的软件生态。开源模型不仅对企业用户和SaaS厂商至关重要,也为机器人技术等前沿领域注入了全新动力。

我们正在积极与美国政府沟通,强调美国科技公司进入中国市场的必要性。目前,H20芯片已获准向未被列入实体清单的公司销售,大部分许可证也已发放。我们认为,未来将Blackwell架构引入中国市场是一个现实可能的方向。

问:在第三财季业绩指引中,你们预计营收将比第二财季增长70亿美元,其中数据中心业务是主要贡献者。我们应如何将这70亿美元增长在Blackwell、Hopper及网络业务三大板块中进行拆分?

克雷斯:首先需要明确,第二财季至第三财季的增长中,Blackwell仍将占据数据中心业务的主要部分。值得注意的是,Blackwell不仅直接带动计算业务收入,还通过集成的NVLink技术方案拉动网络业务增长——我们交付的是完整的系统解决方案。与此同时,Hopper架构产品(包括H100和H200)仍然保持稳定销售。虽然目前无法提供具体的分业务明细,但可以肯定的是,Blackwell将是本季度增长最核心的驱动力。

问:关于Rubin产品迭代的战略意义,你能否分享更多背景信息?相较于Blackwell,Rubin在性能与功能层面将带来怎样的升级?它能为客户提供哪些新增价值?

黄仁勋:我们坚持年度技术迭代的节奏,核心目标是持续帮助客户降低总体拥有成本并提升投资回报。当我们提高每瓦性能——即单位能耗可处理的Token数量时,实际上就是在帮助客户提升营收能力。

以Blackwell为例,在推理任务中,其能效较Hopper实现了数量级的飞跃。在数据中心普遍面临能源约束的背景下,客户使用同等电力可创造较以往方案显著更高的收益。同时,由于Blackwell在每美元性能上的突出表现,客户在保持资本支出不变的情况下还能进一步改善利润水平。

我们每一代新架构都旨在同时提升客户的AI能力与经济效益。因此,我们建议客户采用以年度为周期的数据中心规划节奏。

Rubin将带来多项架构层面的突破性创新。虽然具体细节将在未来的GTC大会上公布,但我可以确认的是,该平台汇聚了许多令人兴奋的技术进步。目前,我们的重点正全面转向Grace Blackwell(GB200)和Blackwell Ultra(B300)的数据中心级规模化部署。在已经创下纪录的财年基础上,我们相信下一财年将再次实现突破。

我们一方面持续推动人工智能向超级智能演进,另一方面不断帮助超大规模客户提升收益能力——这两大使命共同构成了我们技术演进和产品迭代的核心动力。

问:我想就你们提到的AI市场50%年复合增长率(CAGR)的趋势进行请教:你们如何看待明年的增长率?这一增速是否可作为数据中心业务明年收入增长的合理基准?是否存在可能影响该预期的变量?

黄仁勋:对于明年,我们从主要客户那里获得了非常积极的预测,同时还有大量新增业务和不断涌现的AI原生初创企业推动增长。去年AI初创企业融资总额达1000亿美元,而今年尚未结束就已突破1800亿美元。头部AI初创企业的营收从去年的20亿美元跃升至今年的200亿美元——在这样的增长势头下,明年再实现数倍增长是完全可能的。

开源模型的成熟正在吸引更多传统企业、SaaS提供商、工业集团和机器人公司加入AI转型行列,这将带来新一轮增长动力。目前整个行业都处于供不应求的状态:H100和H200芯片全部售罄,大型云厂商不得不相互租用算力,AI初创公司更是全力争夺训练资源。

长期来看,超大规模企业的资本支出在两年内翻番的趋势可能会持续。如果英伟达能够保持现有的市场地位,增长将是水到渠成。未来几年,整个行业有望保持高速发展态势。

请允许我借此机会总结一下我们的技术进展:

Blackwell平台被誉为革命性的新一代AI基础设施,其性能实现了跨越式提升。通过NVLink 72机架级互联技术,我们成功满足了推理AI模型对算力的指数级增长需求。目前Blackwell Ultra已经全面量产,市场反响远超预期。

我们的下一代Rubin平台已经进入晶圆制造阶段,包含六个全新芯片设计,全部完成台积电的流片。作为第三代NVLink机架级AI超级计算机,Rubin将配备更加成熟的供应链体系。Blackwell和Rubin将共同推动全球AI工厂的建设规模在2030年前达到3-4万亿美元。

客户正在建设越来越大规模的AI基础设施:从配备数千个Hopper GPU的兆瓦级数据中心,发展到部署数十万个Blackwell GPU的百兆瓦级设施,未来还将建设基于数百万个Rubin GPU的吉瓦级分布式AI超级工厂。每一代技术升级都在推动市场需求持续增长。

AI技术本身也在快速演进:从简单的单轮对话聊天机器人发展到具备研究、规划和工具使用能力的智能体系统,这对训练和推理算力提出了更高要求。随着智能体技术趋于成熟,企业正在构建专属的AI代理系统。物理AI时代的到来为机器人和工业自动化开创了全新可能性——未来每个工业企业都可能需要同时运营两个工厂:一个生产产品,另一个"生产"AI驱动的机器人系统。

在第二财季,英伟达创下了营收纪录,标志着我们旅程中的非凡里程碑。我们正站在一场新工业革命的起点,AI竞赛已经全面展开,未来的发展空间不可限量。

本文来自“腾讯科技”,作则:金鹿,36氪经授权发布。

+1
17

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

国务院推AI+战略:2027年智能应用普及率超70%,重塑经济范式

7小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业