赢家诅咒,英伟达跌近15%背后的泡沫之辩

IT时报·2025年12月01日 19:12
AI乌托邦还是资本纸牌屋?

“赢家诅咒”正在显现。

11月3日,英伟达开盘208.08美元,11月28日(美东时间),收于177美元,跌幅已近15%。

“在人工智能泡沫的喧嚣中,公司处境艰难。”在一份流传出的英伟达内部会议讲话中,黄仁勋依然展现出深入骨髓的危机意识,尽管上周发布的2026财年Q3财报再度超越华尔街预期,但做空的声浪也越来越高。

几乎同时,另一个巨头被赋予“回归”的叙事意义。同样以11月3日~11月28日(美东时间)为观察锚点,谷歌的股价从282.42美元上涨至320.12美元,涨幅超13%

刚刚发布的Gemini3.0成为投资者重建信心的关键节点,谷歌一扫过去在AI上的颓势,被认为重新坐上了AI的牌桌,而支撑Gemini训练的TPU,更被视为英伟达强劲的对手。

然而,无论是谷歌,还是英伟达,都必须面对一个更为釜底抽薪的论断:“Scaling时代已经终结。”OpenAI前首席科学家IlyaSutskever在接受采访时表示,单纯依靠堆算力、扩规模的路线已经触及天花板,人工智能需要新的范式。

三年前的11月30日,OpenAI发布ChatGPT-3.5版本震惊全球。自此之后,AI一日,人间一年,人类从未如此急切地奔向新时代。

如今,这场革命是否会以同样节奏继续下去?技术乐观派描绘出的究竟是乌托邦,还是纸牌屋?

1 “折旧周期”的罗生门

“Folly(愚蠢)。”11月24日,以精准预测2008年美国房地产次贷危机和金融危机而闻名的“大空头”迈克尔·伯里(MichaelBurry),在一篇名为《泡沫的首要特征:供给侧贪婪》开头如是写道。

迈克尔·伯里自诩为“卡桑德拉”——希腊神话中一位总是预言真相,却不幸地知道没有人会相信她的女孩。他将当前美国人工智能热潮描述为“一场壮丽的荒唐之举”,并指出英伟达的“陨落”将是美国AI行业泡沫破裂的前兆,理由是科技巨头们在数据中心建设和芯片采购上投入巨额资金,但下游应用端实际收入难以覆盖成本。

迈克尔·伯里并不是唯一的质疑者。综合红杉资本对“AI’s$600BQuestion”的测算以及贝恩等咨询机构对2030年AI收入需求的情景分析,目前可识别的AI直接收入仍只有数百亿美元量级,而要完全消化正在发生的数千亿美元级AI基础设施投入,部分研究认为到2030年全球AI相关年收入可能需要提升至数万亿美元规模,这意味着投资预期与现实收入之间仍存在显著缺口。

更激烈的争议发生在“循环融资风险”和“GPU折旧周期虚增”的讨论中。

悲观者认为,前沿GPU的经济寿命只有三年,这并非由于物理性能的退化,而是源于技术的过时。随着AI模型技术的高速演进,人工智能数据中心约78%的经济产能会在前三年内耗尽,假设在前沿人工智能计算方面投资100美元,到第三年仅剩下22美元具有经济竞争力的产能。

英伟达发布新品的节奏从侧面印证了这个观点。近五年来,英伟达几乎每18~24个月就会发布一款新架构(从Hopper到Blackwell再到Rubin),今天购买的芯片,三年后实际上就成了“过时”硬件。

从当前所有超大规模数据中心运营商的财务操作来看,恰恰相反,他们是在拉长GPU的折旧周期。一位硅谷的人工智能交易专家HenryZhang在其一篇名为《折旧幻象:大型科技公司如何制造每股收益》的文章中如是分析:2023年,微软将服务器使用寿命从4年延长至6年,这一会计变更使营业收入增加了数十亿美元,实际上在账面上补贴了其Azure的利润率;2025年,Meta将服务器和网络资产的期限延长至5.5年(原为4年)。

“仅此一项调整预计今年就能为其带来约29亿美元的额外收入。”HenryZhang表示,谷歌和甲骨文的服务器使用寿命也都延长至6年,好处显而易见,计入每年的折旧成本下降,利润上升,市场对“创纪录的每股收益”和“人工智能增长”欢呼雀跃。

然而,拉长折旧周期并不能保证几年后这些成本能带来同样稳定的收入。迈克尔·伯里认为,巨头们将在2026年至2028年期间低估折旧额1760亿美元。2028年,甲骨文的盈利将虚报26.9%,META将虚报20.8%,以此类推,“情况还会更糟”。

乐观者并不同意这种说法。知名研究机构Bernstein认为,老GPU真能跑6~7年,一旦过了刚上线容易烧卡的前六个月,后面的故障率其实很低。更关键的是,Bernstein认为,尽管英伟达的芯片更新很快,但客户更喜欢把最苛刻的训练任务扔给最新卡,旧卡被降级去做推理或者轻量任务,这个时间可以持续很长,因此租赁成本并没有下降很多。

“至少现在,A100还是基本满负荷的。”Bernstein分析认为。不过,一位国内半导体人士向记者表示,国内的情况并不太一样。尽管此前云服务商出租给大厂时基本是五年长约,但往往过了一两年,甲方哪怕是付违约金也会跟乙方重签,因为租赁价格降得太厉害。

“长期来看,英伟达GPU6~7年的折旧周期,对于国内云服务厂商而言,并不会有太大风险,因为国内算力芯片和英伟达最先进芯片的代际差,目前至少有3~5年,因此当前更关注超节点堆叠方式,对于单芯片的算力不会那么在意。”另一位云服务商告诉记者。

2 TPU路线曙光出现

事实上,英伟达更大的压力来自自己的客户。

硅谷巨头们正纷纷踏上“造铲”之路。特斯拉CEO马斯克近日宣布,已组建起一支具备行业顶尖水平的芯片研发团队,并在车辆控制系统与数据中心部署了数百万颗自研AI芯片。他表示,其本人将“深度参与”特斯拉的AI芯片设计,并称其目标是“每年量产一款新芯片”。

TPU的成功更被认为是英伟达“泡沫破灭”的可能因素之一。中昊芯英(杭州)科技有限公司(简称中昊芯英)是国内最早走TPU路线的芯片公司,其创始人杨龚轶凡曾是谷歌TPU芯片核心研发者。

中昊芯英首席解决方案架构师平晓峰告诉《IT时报》记者,谷歌最新的TPUv7是在原有的TPU架构上采用更先进的制程和更大更快的HBM容量,来强化TPU脉动阵列技术带来的极致能效比,让芯片把时间花在计算上,而不是等待数据上,“更多的模型厂家可以看到谷歌Gemini通过其TPU集群如何以更低成本、更高效率达成,甚至超越OpenAI基于GPU开发的模型,这将为TPU市场带来OpenAI给英伟达那样的影响。

甚至在英伟达最强大的生态护城河CUDA上,谷歌也已有了应对方案。为降低客户切换门槛,谷歌推出“TPU命令中心”软件,这款工具旨在简化TPU的集成与管理。

它借鉴了PyTorch框架——由Meta首创并开源的AI开发利器,允许开发者无须精通谷歌的JAX语言,即可操控TPU集群。

这个操作不仅提升了TPU的易用性,还借力Meta的开源贡献,形成生态闭环。通过该软件,客户能轻松监控集群性能、优化资源分配,甚至模拟云端环境。有消息称,Meta有意用TPU训练全新AI模型,而非仅限于推理任务。

平晓峰也告诉记者,TPU架构专为AI/ML而生,专注于张量运算以实现更高的计算速度,同等制程下相较GPU可实现性能3-5倍跃升。但在国内市场,如果想说服一个已经基于英伟达GPU开发的AI团队迁移到国产芯片,最大的难点依然是对“迁移成本”和“生态惯性”的担忧。开发者习惯了CUDA的便利性和丰富的社区资源,担心迁移后开发效率降低、遇到问题无人可解。

因此,中昊芯英的解决路径是:一方面先帮助客户将部分计算密集型任务迁移到智算系统,实现“混合算力”部署,立竿见影的降本增效;然后再通过技术支持,确保迁移过程无忧;最终,通过持续迭代更易用的软件工具链,让迁移过程越来越平滑,直至形成新的生态平衡。

3 国产算力“走自己的路”

尽管硅谷关于AI泡沫的争议甚嚣尘上,实际上,国内AI业界并没有因此激起太多涟漪。

英伟达在中国营收占比持续下滑,从历史高点约26%降至2025财年的13.1%,黄仁勋甚至在采访时表示“中国市场份额已归零”。

与此同时,本土替代加速。有消息称,华为昇腾910C的AI推理性能已约为英伟达H100的60%,“电子茅台”寒武纪业绩爆发,2025年上半年营收同比增长44倍,净利润扭亏为盈。

Fortune预计,中国AI芯片本土化率将从2023年的17%升至2027年的55%。即使最近美国即将放行英伟达H200的说法传得沸沸扬扬,但多名国内云服务商人士告诉《IT时报》记者,“不会给国内算力市场带来太多变化,算力国产化已是必然,而不再是备胎”。

平晓峰认为,大厂自研芯片和独立芯片厂商并存,将是未来国产AI算力市场的常态,市场格局将走向“分层多元”。

大厂自研芯片主要服务于其内部特定业务,追求极致的“术业有专攻”,是一种垂直整合,而像中昊芯英这样的独立厂商,核心价值在于提供通用性强、性价比高、服务更灵活的“商品化”算力产品,满足更广泛市场的需求。两者服务对象和商业模式不同,并非完因此,市场不会过于拥挤,而是会自然分层。

未来不会出现单一垄断,而是形成“通用GPU+专用TPU+行业定制ASIC”的多层次、差异化市场格局。百家争鸣的背后是各司其职,共同建设良好的生态。

本文来自微信公众号“IT时报”(ID:vittimes),作者:郝俊慧,编辑:郝俊慧、孙妍,36氪经授权发布。

+1
4

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

国产手机开卷AI助手功能,豆包与中兴合作推出手机助手,阶跃星辰开源GUI Agent技术。

59分钟前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业