OpenAI和英伟达,正在把GPU玩成“金融产品”
9 月 23 日,一则消息搅动全球科技圈:英伟达可能向 OpenAI 投入高达 1000 亿美元,共同建设规模达 10 吉瓦(GW) 的 AI 数据中心。虽然这一消息尚未得到权威确认,但无论真假,它都折射出一个更重要的事实——算力正在被金融化。
为什么说这不是空穴来风?
回顾过去一年,全球 AI 产业的资金流向已发生显著变化。 根据PitchBook 数据,2 024年全球生成式AI融资560亿美元,占到 A I 产业总融资额的一半以上。微软、谷歌、Meta 的资本开支也刷新纪录,仅微软在 2024 年的资本开支就达到 550 亿美元,其中大部分用于建设 GPU 数据中心。
如果说 ChatGPT 的发布改变了人机交互方式,那么 GPU 金融化可能会改变整个 AI 产业的资本运行逻辑。这不是一家公司、一桩投资的孤立新闻,而是正在发生的趋势。
GPU的“金融化时刻”
在传统模式下,AI 公司采购 GPU,就像工厂买设备:一次性投入巨额资金,自建机房,GPU 作为固定资产,逐年折旧。问题是,这种模式在 AI 行业很快遇到瓶颈。
迭代周期太短:英伟达 GPU 更新几乎两年一代。A100 刚部署完,H100 就来了;H100 还在供货,B100/B200 已经在路上。大规模买断意味着巨额沉没成本。
单笔投入过大:要支撑万亿级参数模型的训练,单次算力采购成本可能超过 50 亿美元。哪怕是微软、谷歌这样的巨头,也难以长期维持“买断模式”。
硬件价值迅速缩水:当新架构 GPU 上市时,旧卡的价值立刻跳水。A100 在二级市场的价格一年内下跌了近 60%,买断者承担了全部贬值风险。
因此,租赁模式成为解法。它让 GPU 从一次性资产,转变为可以 融资、租赁、分期、转让 的“金融产品”。
现实案例已经在展开: CoreWeave,一家 GPU 云服务商,2024 年完成 17 亿美元融资,估值超过百亿美元,主要商业模式就是 GPU 租赁。它甚至与高盛合作,把 GPU 租赁合同打包成债务工具进行融资。 Lambda Labs 提供“GPU 按小时租赁”服务,H100 的租赁价格在 2.99 美元/小时,成为开发者最常用的平台之一。 Vast.ai 则尝试做“GPU 的 Airbnb”,让闲置 GPU 上架出租。 在国内,阿里云、腾讯云 也推出了“大模型算力套餐”:阿里云百炼平台上,一个 8 卡 H800 服务器,日租金可达数万元人民币,本质上也是 GPU 金融化的一种体现。
对英伟达而言,这种模式意味着出货量和现金流的长期锁定,GPU 不再只是芯片,而是像“飞机租赁”一样的长期资产。对 OpenAI 来说,租赁能避免“一次性 1000 亿”的压力,同时保持灵活性,把算力从沉没成本变成流动资产。
算力的资本逻辑:比 ChatGPT 更颠覆
ChatGPT 改变了人类使用 AI 的方式,但 GPU 金融化可能改变整个 AI 行业的游戏规则。
未来,我们可能看到:
算力债券化GPU 租赁合同像飞机租赁合同一样,被打包成债券,在资本市场交易。银行和基金不再只是投资 AI 公司本身,而是投资“算力使用权”。算力证券化算力 REITs 或 ETF 可能出现,投资者可以买卖“GPU 使用份额”。这让普通投资人也能“炒算力”,就像炒石油或黄金。算力指数化未来可能有一个全球 GPU 使用指数,类似布伦特原油或波罗的海航运指数,成为 AI 产业的晴雨表。算力信用评级AI 公司能否租到 GPU,不仅取决于技术实力,还取决于信用等级。信用高的公司能拿到低价算力,信用差的可能被拒之门外。
这种逻辑已经开始萌芽。2024 年,CoreWeave 就与摩根大通合作,把 GPU 租赁合同当作抵押物进行融资,这几乎是“算力债券”的雏形。
但这种金融化也带来风险。GPU 被过度证券化,可能会像 2008 年的次贷危机一样,形成庞大的衍生品市场。一旦底层资产价格波动,整个系统可能面临崩塌。
换句话说,算力金融化可能比 ChatGPT 更颠覆,但风险也更深远。
美国的“GPU金字塔”
把全球 AI 格局画成一座金字塔,美国的算力层级已经非常清晰: 顶端:英伟达,掌控 GPU 的供应链与定价权; 中层:微软、谷歌、亚马逊(AWS)、Meta 等云巨头,搭建全栈 AI 基础设施; 底层:OpenAI、Anthropic 等大模型公司,直接使用算力输出应用。
金融化租赁模式让这座金字塔更加稳固。大公司有融资能力,可以滚动租赁 GPU,形成闭环;小公司缺乏信用和资金,直接被挡在门外。
这意味着 AI 创业公司未来可能连“进场资格”都没有。
与此同时,能源问题成为另一条隐形的约束。国际能源署(IEA)预测,到 2026 年全球数据中心耗电量将达到 1000–1500 TWh,是 2020 年的 2–3 倍,其中 AI 占比将超过 30%。
在美国部分州,数据中心建设已经与居民用电、工业用电发生直接冲突。德州就出现过“AI 数据中心抢电”的舆论,地方政府甚至暂停部分项目审批。
资本、算力、能源三重集中,美国的 AI 生态越来越像“石油寡头”时代:强者恒强,弱者无门。
中国的困境与窗口
对中国来说,这一幕有着更直接的警示意义。
第一,硬件差距:美国的出口管制让 H100/H200/B200 无法进入中国市场,中国厂商只能买到 A800、H800 等阉割版。国产 GPU 虽在追赶,但整体性能和生态仍有 3–5 年差距。
第二,金融差距:美国正在构建“算力金融体系”,GPU 使用权可以租赁、融资、证券化。而国内算力市场依旧停留在“按机时计费”,缺乏成熟的金融衍生机制。即便未来造出国产 GPU,如果没有金融体系支撑,可能依然处于被动地位。
第三,战略机会:中国 AI 公司在算法优化和推理降本上已有探索。比如 DeepSeek 主打“低算力高效率”,零一万物强调多智能体架构,MiniMax 则通过轻量化模型抢占 C 端市场。这些方向都强调“智能密度”——单位算力下的有效智能输出。
但要真正补齐差距,中国不仅要追芯片,还要追上 算力的金融基础设施。这意味着要构建自己的 GPU 租赁市场、算力信用评级体系、算力调度网络,才能避免被全球算力金融化体系边缘化。
最后
OpenAI 与英伟达的传闻,真正改变的不是采购模式,而是产业逻辑。
从技术角度看,GPU 金融化能让顶级公司更快迭代,推动 AI 发展; 但从产业格局看,它可能加剧不平等,让算力成为资本垄断的新武器。
当 GPU 不再只是芯片,而是债券,我们迎来的究竟是一个更高效的 AI 世界,还是一场被资本接管的新风险?
ChatGPT让人类看见了AI的力量,而GPU金融化,让人类看见了资本的力量。
本文来自微信公众号“科技不许冷”,作者:科技不许冷,36氪经授权发布。