谷歌 Ironwood TPU 突袭,英伟达 GPU 迎来挑战者?
11月26日凌晨1点,英伟达罕见发布紧急声明,回应近期市场对AI硬件发展路线的热议。业界普遍认为,此举与谷歌第七代Ironwood TPU正式上市,以及Meta考虑采用TPU方案等行业动态密切相关。
受此影响,英伟达股价昨日出现波动,盘中最高跌幅达7%,最终收盘下跌2.59%。目前,这条声明浏览量破150万,评论超750个,成为AI圈爆火内容。
市场对此反应不一。有观点认为,投资者正在重新评估AI芯片市场的未来格局。有行业观察者指出:“当你的大客户开始自研芯片时,市场竞争的逻辑就发生了变化。”不过,也有分析强调,英伟达的核心优势在于其建立的完整生态体系。
值得一提的是,尽管谷歌成功开发了TPU系列芯片,但其仍在采购英伟达GPU。这凸显出当前AI芯片市场的复杂态势。专用芯片虽能在特定场景展现优异性能,但通用平台在实际工作负载适配、灵活扩展性和生态系统方面仍具优势。
01谷歌用Ironwood+Axion重构AI基建
如果说过去十年,AI基础设施基本等同于“GPU+云+自行管理架构”的组合,那么现在Google正试图用一套集“定制硬件、云服务、托管支持、专用芯片、高速网络、生态协同与弹性扩展”于一体的方案,重新定义AI基础设施的核心形态。
其中,Ironwood作为Google的第七代TPU,是其迄今为止性能最强、能效最高的加速器,专门针对大规模模型训练、推理、模型服务及智能体(Agent)工作流设计。
根据Google博客介绍,相较于前代TPUv5p,峰值性能提升约10倍;与最近一代v6e相比,单芯片在训练和推理任务上的性能也超过4倍。同时,Ironwood还配备了超大带宽、大容量内存、高速互联、液冷系统及系统级优化,能够高效适配复杂、高并发、低延迟的大模型部署与服务场景。
与之搭配的,是Google推出的基于ARM架构的AxionVM,包含N4A、C4Ametal等型号。这套方案可覆盖通用计算、机器学习加速、推理任务及日常后台运算,形成了“定制芯片+通用CPU+云服务+网络支持+托管服务”的完整闭环,对外提供“AI超级计算机即服务”的全新模式。
换句话说,Google并非单纯售卖一块芯片,而是在打造一个可租用、可弹性扩展、能容纳大规模模型运行、支持高并发服务与全球用户访问的全方位AI基础设施体系。
这一组合对行业而言堪称重大转折:
一方面,Ironwood实现了性能与能效的双重突破,10倍性能提升搭配高效能耗与大规模扩展能力,对大模型训练、推理及服务场景极为友好。
另一方面,它大幅降低了AI落地的门槛、运维复杂度与成本。客户无需自行购置GPU集群,也省去了管理冷却、网络、负载均衡等复杂基础设施的精力,直接租用“AI超级计算机+托管服务”即可启动项目。
更关键的是,Google构建了“生态+芯片+云+服务”的一体化模式,将模型开发、推理运算、部署上线、服务运维与托管支持的全流程进行整合,无论对大企业、大规模服务提供商还是初创公司都极具吸引力。
此外,这套方案专门针对大规模推理、模型服务、智能代理、多模态应用、多用户并发访问等场景优化,而这些正是传统GPU时代要么不擅长、要么成本过高、效率不佳的领域。
所以,Ironwood+Axion绝非简单的另一个GPU替代选项,而是AI基础设施的“2.0版本”大升级。
它代表了AI+云+服务化基础设施+硬件垂直整合+托管支持+弹性扩展+低门槛使用的新思路,对于那些希望快速推出AI服务、节省资本开支、降低运维压力,同时追求高并发、低延迟与大规模用户访问能力的企业和组织来说,无疑是极具吸引力的选择。
02英伟达的时代过去了吗
谷歌Ironwood的强势登场,无疑向英伟达的GPU帝国发出了一个明确的挑战信号。这是否意味着英伟达时代将迎来终结?
针对市场变化,英伟达在声明中强调了其独特价值:“英伟达是唯一能够运行所有AI模型的平台,在任何地方都能做到。”
这一表态凸显了英伟达的核心战略,通过“GPU+CUDA+生态”构建的通用计算平台,保持其在AI基础设施中的基础地位。
具体而言,英伟达的优势体现在三个层面:
第一,通用性与兼容性。英伟达GPU的核心优势,从来不是单块芯片的性能,而是由“硬件+软件+生态”织就的庞大网络。CUDA就像GPU的操作系统。当年英伟达推出这个平台后,降低了开发者使用GPU并行计算的门槛,使其无需深入钻研硬件底层。
现在几乎所有主流AI框架,比如PyTorch、TensorFlow,都直接适配CUDA,开发者写的代码能无缝在英伟达GPU上运行,不用反复修改。
第二,广泛适配,已形成成熟生态。从科研机构用的小模型,到OpenAI训练的GPT-5等超大模型;从医疗影像分析、自动驾驶,到短视频推荐、语音助手,几乎所有AI相关的场景,都有现成的CUDA优化工具和案例。
就像万能插座能适配各种插头,英伟达GPU+CUDA组合,能让绝大多数AI模型近乎即插即用。不管是学术研究的实验模型,还是企业落地的商用模型,不用特意改造就能高效运行,这是其他硬件平台很难比的,也是它的看家本领之一。
第三,通用性带来的灵活性与长期成本优势。与专用芯片(ASIC)为特定任务量身定做不同,英伟达GPU的通用架构使其能从容应对AI技术的快速迭代。
ASIC就像为特定任务量身定做的“定制工具”。比如谷歌的TPU,就是专门优化深度学习中的矩阵运算,在自家生态的模型训练和推理中,能效比确实很高,成本也更低。
但它的问题在于“专”得太绝对。首先,这会导致场景受限。TPU主要适配TensorFlow框架和谷歌的模型,要是换个小众框架或自定义模型,可能根本跑不起来,就像专门跑马拉松的跑鞋,用来爬山只会更难用。
其次,缺乏灵活性。ASIC的电路是固定的,一旦完成生产,就只能优化特定算法。如果AI技术迭代出新技术,比如从传统深度学习到多模态模型,旧的ASIC芯片可能直接被淘汰,企业得重新采购,硬件成本很高。
更关键的是,ASIC很难覆盖复杂场景。比如一家公司既做图像识别,又做自然语言处理,还做推荐系统,用ASIC可能要为每个场景买专门的芯片,管理和维护成本会飙升;而英伟达GPU能同时搞定这三类任务,不用额外适配。
这也是英伟达对ASIC保持警惕的核心原因。ASIC只能解决“单一问题”,但AI行业的需求一直在变,模型和场景越来越多元,万能工具永远比专用工具更有普适性。
03 未来AI芯片赛道大洗牌
尽管英伟达生态优势显著,但市场格局正在松动。
最直接的体现是,Meta正与谷歌洽谈采购TPU事宜,计划从2027年开始在其数据中心部署谷歌芯片。这一动向反映了大型科技公司对AI基础设施的战略考量,在追求性能与能效的同时,通过多供应商策略降低供应链风险。
假设未来2–5年,谷歌凭借自研TPU、云服务与一体化基础设施的组合持续发力,Meta等科技巨头纷纷转向TPU采购与托管服务,更多企业跟进采用多样化基础设施与混合部署模式,整个AI产业将迎来全方位的深度变革,其深远影响将贯穿基础设施形态、硬件市场格局、投资估值逻辑与应用商业化四大维度。
首先,AI基础设施将完成从“自建GPU集群”到“云+专用硅+混合”的根本性转变。
这一变革对不同规模的机构而言都意义重大:对中小公司、创业者和研究机构来说,无需再投入巨额资本购置GPU、建设专业机房及配套的冷却、电力系统,也不必承担高昂的维护运维成本,只需通过租用标准化服务就能快速启动或灵活扩展AI项目。
对大型公司、SaaS服务商、内容平台而言,这种新模式能让它们更灵活、经济、可扩展地部署大模型、推理任务、多模态应用、智能代理及实时服务。
其次,AI硬件市场将彻底告别“GPU一统天下”的格局,迈入“混合/多极/分散/服务化”的新阶段。
GPU不再是AI硬件的唯一或必要选项。谷歌TPU凭借单芯片4614 TeraFLOPS的算力密度与显著的成本优势,已成为重要替代选择——其推理场景能效是竞品的2倍,训练成本仅为竞品的20%。与此同时,定制ASIC、专用加速器搭配云基础设施与托管服务的方案,也将形成有效补充。
整个硬件生态将呈现多样化共存的态势:GPU、TPU、定制ASIC、ARM架构虚拟机、云托管及混合部署等不同厂商的方案各展所长。这不仅会打破英伟达的长期垄断,也将为芯片设计、云服务、基础设施提供商及AI初创公司带来全新的商业机会与竞争模式。国产厂商如寒武纪等也在聚焦专用芯片路线,加速缩小技术代差。
再者,行业的投资与估值逻辑将被彻底重塑。
硬件竞争的核心不再是“卖芯片”,而是转向“卖服务/基础设施/云/托管/生态”的全栈能力。过去,投资者评判芯片厂商价值的核心指标是GPU出货量、AI热潮带来的短期需求;而未来,估值逻辑将更多向“谁能提供最经济、可扩展、服务化、全栈式混合基础设施”倾斜。
谷歌凭借从芯片、网络到模型、应用的全链条布局,这套全栈生态能力成为估值提升的关键支撑;Broadcom等具备专用硅+云服务+基础设施整合能力的大厂及中间商,也将迎来新的估值机遇。
对于依赖GPU的传统厂商而言,这既是严峻挑战,也是转型契机。它们要么转向通用/混合路线,要么加快布局专用芯片、云服务及优化堆栈,以适应市场变化。同时,基础设施门槛的降低将激发AI初创公司、SaaS企业及服务型公司的创新热情,让它们更愿意投身技术探索与模式创新。
最后,这一系列变革将直接引爆AI应用、产品与服务的全面爆发。
此前,仅大型互联网公司和资金雄厚的机构有能力自建或托管GPU集群,开展模型训练、部署与服务;而随着“AI超级计算机+托管服务”模式的普及,无论是启动大模型服务、多模态生成、智能代理,还是搭建智能后台服务、推荐系统、内容生成工具、AI SaaS平台,都变得门槛更低、灵活性更高。
谷歌新发布的大模型已推动AI应用成本暴降90%,百万Token成本从7美元降至1美元,直接带动了AI营销等下游领域的业绩爆发。
这种普及性的提升,将让更多公司、个人和中小机构参与到AI创新中来,成为下一波AI应用商业化与产业化大爆发的核心驱动力,推动AI技术深度渗透到数字政府、大交通、制造等更多行业场景。
本文来自微信公众号“第一新声”,作者:第一新声,36氪经授权发布。















