OpenAI和英伟达,正在把GPU玩成“金融产品”

科技不许冷·2025年09月30日 11:20
传闻中的千亿美元大单。

9 月 23 日,一则消息搅动全球科技圈:英伟达可能向 OpenAI 投入高达 1000 亿美元,共同建设规模达 10 吉瓦(GW) 的 AI 数据中心。虽然这一消息尚未得到权威确认,但无论真假,它都折射出一个更重要的事实——算力正在被金融化

为什么说这不是空穴来风?

回顾过去一年,全球 AI 产业的资金流向已发生显著变化。 根据PitchBook 数据,2 024年全球生成式AI融资560亿美元,占到 A I 产业总融资额的一半以上。微软、谷歌、Meta 的资本开支也刷新纪录,仅微软在 2024 年的资本开支就达到 550 亿美元,其中大部分用于建设 GPU 数据中心。

如果说 ChatGPT 的发布改变了人机交互方式,那么 GPU 金融化可能会改变整个 AI 产业的资本运行逻辑。这不是一家公司、一桩投资的孤立新闻,而是正在发生的趋势。

GPU的“金融化时刻”

在传统模式下,AI 公司采购 GPU,就像工厂买设备:一次性投入巨额资金,自建机房,GPU 作为固定资产,逐年折旧。问题是,这种模式在 AI 行业很快遇到瓶颈。

迭代周期太短:英伟达 GPU 更新几乎两年一代。A100 刚部署完,H100 就来了;H100 还在供货,B100/B200 已经在路上。大规模买断意味着巨额沉没成本。

单笔投入过大:要支撑万亿级参数模型的训练,单次算力采购成本可能超过 50 亿美元。哪怕是微软、谷歌这样的巨头,也难以长期维持“买断模式”。

硬件价值迅速缩水:当新架构 GPU 上市时,旧卡的价值立刻跳水。A100 在二级市场的价格一年内下跌了近 60%,买断者承担了全部贬值风险。

因此,租赁模式成为解法。它让 GPU 从一次性资产,转变为可以 融资、租赁、分期、转让 的“金融产品”。

现实案例已经在展开: CoreWeave,一家 GPU 云服务商,2024 年完成 17 亿美元融资,估值超过百亿美元,主要商业模式就是 GPU 租赁。它甚至与高盛合作,把 GPU 租赁合同打包成债务工具进行融资。 Lambda Labs 提供“GPU 按小时租赁”服务,H100 的租赁价格在 2.99 美元/小时,成为开发者最常用的平台之一。 Vast.ai 则尝试做“GPU 的 Airbnb”,让闲置 GPU 上架出租。 在国内,阿里云、腾讯云 也推出了“大模型算力套餐”:阿里云百炼平台上,一个 8 卡 H800 服务器,日租金可达数万元人民币,本质上也是 GPU 金融化的一种体现。

对英伟达而言,这种模式意味着出货量和现金流的长期锁定,GPU 不再只是芯片,而是像“飞机租赁”一样的长期资产。对 OpenAI 来说,租赁能避免“一次性 1000 亿”的压力,同时保持灵活性,把算力从沉没成本变成流动资产。

算力的资本逻辑:比 ChatGPT 更颠覆

ChatGPT 改变了人类使用 AI 的方式,但 GPU 金融化可能改变整个 AI 行业的游戏规则。

未来,我们可能看到:

算力债券化GPU 租赁合同像飞机租赁合同一样,被打包成债券,在资本市场交易。银行和基金不再只是投资 AI 公司本身,而是投资“算力使用权”。算力证券化算力 REITs 或 ETF 可能出现,投资者可以买卖“GPU 使用份额”。这让普通投资人也能“炒算力”,就像炒石油或黄金。算力指数化未来可能有一个全球 GPU 使用指数,类似布伦特原油或波罗的海航运指数,成为 AI 产业的晴雨表。算力信用评级AI 公司能否租到 GPU,不仅取决于技术实力,还取决于信用等级。信用高的公司能拿到低价算力,信用差的可能被拒之门外。

这种逻辑已经开始萌芽。2024 年,CoreWeave 就与摩根大通合作,把 GPU 租赁合同当作抵押物进行融资,这几乎是“算力债券”的雏形。

但这种金融化也带来风险。GPU 被过度证券化,可能会像 2008 年的次贷危机一样,形成庞大的衍生品市场。一旦底层资产价格波动,整个系统可能面临崩塌。

换句话说,算力金融化可能比 ChatGPT 更颠覆,但风险也更深远。

美国的“GPU金字塔”

把全球 AI 格局画成一座金字塔,美国的算力层级已经非常清晰: 顶端:英伟达,掌控 GPU 的供应链与定价权; 中层:微软、谷歌、亚马逊(AWS)、Meta 等云巨头,搭建全栈 AI 基础设施; 底层:OpenAI、Anthropic 等大模型公司,直接使用算力输出应用。

金融化租赁模式让这座金字塔更加稳固。大公司有融资能力,可以滚动租赁 GPU,形成闭环;小公司缺乏信用和资金,直接被挡在门外。

这意味着 AI 创业公司未来可能连“进场资格”都没有。

与此同时,能源问题成为另一条隐形的约束。国际能源署(IEA)预测,到 2026 年全球数据中心耗电量将达到 1000–1500 TWh,是 2020 年的 2–3 倍,其中 AI 占比将超过 30%。

在美国部分州,数据中心建设已经与居民用电、工业用电发生直接冲突。德州就出现过“AI 数据中心抢电”的舆论,地方政府甚至暂停部分项目审批。

资本、算力、能源三重集中,美国的 AI 生态越来越像“石油寡头”时代:强者恒强,弱者无门。

中国的困境与窗口

对中国来说,这一幕有着更直接的警示意义。

第一,硬件差距:美国的出口管制让 H100/H200/B200 无法进入中国市场,中国厂商只能买到 A800、H800 等阉割版。国产 GPU 虽在追赶,但整体性能和生态仍有 3–5 年差距。

第二,金融差距:美国正在构建“算力金融体系”,GPU 使用权可以租赁、融资、证券化。而国内算力市场依旧停留在“按机时计费”,缺乏成熟的金融衍生机制。即便未来造出国产 GPU,如果没有金融体系支撑,可能依然处于被动地位。

第三,战略机会:中国 AI 公司在算法优化和推理降本上已有探索。比如 DeepSeek 主打“低算力高效率”,零一万物强调多智能体架构,MiniMax 则通过轻量化模型抢占 C 端市场。这些方向都强调“智能密度”——单位算力下的有效智能输出。

但要真正补齐差距,中国不仅要追芯片,还要追上 算力的金融基础设施。这意味着要构建自己的 GPU 租赁市场、算力信用评级体系、算力调度网络,才能避免被全球算力金融化体系边缘化。

最后

OpenAI 与英伟达的传闻,真正改变的不是采购模式,而是产业逻辑。

从技术角度看,GPU 金融化能让顶级公司更快迭代,推动 AI 发展; 但从产业格局看,它可能加剧不平等,让算力成为资本垄断的新武器。

当 GPU 不再只是芯片,而是债券,我们迎来的究竟是一个更高效的 AI 世界,还是一场被资本接管的新风险?

ChatGPT让人类看见了AI的力量,而GPU金融化,让人类看见了资本的力量。

本文来自微信公众号“科技不许冷”,作者:科技不许冷,36氪经授权发布。

+1
10

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业