博通打算做空英伟达
刚刚,我看了高盛发布的一份报告。
发布时间是1月20日。名字比较长,叫 《Inference Cost Curve: Comparing AI Compute Solutions (GPUs vs. ASICs)》(中文直译:《推理成本曲线:AI 计算方案对比(GPU vs. ASIC)》)。
核心观点是,随着谷歌和博通(Broadcom)的最新一代 TPU v7 芯片量产,它单位算力的推理成本居然暴降了 70%。
01
这 70% 降幅,到底意味着啥?要只看硬件参数,估计有人会觉得「不就是芯片常规升级嘛」。
但高盛想表达的核心是,这 70% 的降幅,本质上,要在物理规则层面打破行业原有逻辑了。
这话该怎么理解?要掰扯清楚,我得先把「推理」和「训练」这两个词拆开来讲明白。
过去两年,AI 行业都处在「造车」的阶段,说白了,训练大模型。谁的引擎,也就是算力,够强,谁就能最先造出「布加迪」这种顶级模型。
那时,英伟达的H100/H200 是独有的选择,哪怕贵到离谱,大家也得咬牙买,就因为它的速度最快。
但现在不一样了,车基本造好了,该进入「跑车接客」的阶段了,也就是做模型推理。这时,老板们最关心:每跑一公里要烧多少油。
高盛这份报告的犀利之处就在这,它不再聊这车能跑多快,反倒死磕 「推理成本」。
那问题来了,这70% 的成本,到底是怎么「省」出来的?
平常芯片升级,性能能提升 20%-30%,就已经算把牙膏挤爆了。TPU v7 凭啥能一下子把成本砍 70%?高盛分析师给出的答案,是靠「系统工程能力的绝对碾压」。
我打个比方:
英伟达的 GPU像一辆装了 V12 发动机的超级跑车,为了追极致速度,压根不在乎油耗,散热大得离谱,还得配最好的变速箱和传动系统,处处堆顶配。
但谷歌的 TPU v7像一列精心设计的高铁,单节车厢的动力可能比不过超跑,但它把几十节车厢连在一起,就不一样了。
单看最高速度,高铁是稍逊超跑一筹,但如果要运送 1000 名乘客,也就是处理海量 Token,高铁的人均能耗,直接把超跑按在地上摩擦。
所以,具体来说,这 70%的成本红利,来自三个维度:
一是数据传输彻底不堵车了,芯片之间传数据,基本不用等,等待时间几乎为零;二是封装做得更紧凑,把计算模块和内存挨得特别近,信号在传输过程中的损耗就少多了。
还有一点,架构更专一了。
ASIC 专用芯片直接砍掉了显卡里为了玩 3A 大作留的冗余功能,硅片上的每一寸地方,都只用来算 AI 的数学题,半点儿浪费都没有。
高盛还说,TPU v7 的绝对成本,已经和英伟达 GB200 NVL72 基本持平了。
这又意味着啥?以前客户选 TPU,说白了「穷,买不起英伟达」,纯属无奈的妥协;现在大家心里都会想 「既然 TPU 和英伟达差不多贵,甚至还更便宜,我为啥还要忍着英伟达的高溢价,还有动不动就缺货的糟心事?
当「性价比」这个天平开始往 TPU 这边倾斜,企业的商业决策就会发生质的变化。
像 Meta、微软这样的科技巨头,推理成本本来就占了运营成本的大头,要能用 TPU 把这块成本砍掉 70%,那直接就是净利润的暴涨啊。
所以说,这 70% 的降幅,是ASIC(专用芯片)向 GPU(通用芯片)正式宣战的号角。
它彻底证明了:在 AI 商业化的下半场,走「专精特新」路线的定制化方案,完全有能力在经济性上干翻「大而全」的通用霸主,这是整个芯片行业的大逆转。
02
如果说 TPU v7 能降本 70%,只是实验室里的纸面数据,那 Anthropic 砸出的 210 亿美金大单,就是把这串数字砸进现实的「惊雷」。
没错,你没看走眼,210 亿美金。这概念有多夸张?
2024 年一整年,全球一半 AI 初创公司融到的钱凑一块儿,刚够下这一个单,而且这单不是一次性掏钱。
据高盛的报告和市场一手消息,这份采购单覆盖 2025 年底开始,一直到 2026 年甚至更久的定制芯片(ASIC)采购周期。
很多人第一反应:Anthropic 哪来这么多钱烧?别急,别忘了它背后的大金主:谷歌、亚马逊。
尤其是谷歌,本身就是 Anthropic 的二股东,这笔钱简直是左手倒右手。谷歌把钱投给 Anthropic,Anthropic 转头通过博通(Broadcom),把这笔钱换成了定制的 TPU 算力。
为啥要这么折腾?说白了,Anthropic 早就看清 AI 商业化的最终走向了。
以前聊起大模型公司,大家都觉得这帮人是「算法天才」,但你真扒开他们的账本看看就知道,这帮人本质上都是英伟达的打工仔。
融来的钱,80% 都砸给了老黄变成芯片订单,还得排队等货、看人家脸色,硬生生扛着超高的溢价。哪个资本机构受得了?
所以,Anthropic 敢砸出这 210 亿,冲着三件事来:
第一,完成从「租房」到「买地」的质的飞跃。买英伟达的芯片,跟租精装修的豪宅似的,虽说能拎包入住,但租金也就是芯片的毛利,高得离谱。
高盛算过了,要想在 AI 赛道长期做下去,自建定制芯片(ASIC)的方案,长远来看能比买通用 GPU 省出一大半成本;Anthropic 就是不想再交这冤枉房租了,它要建属于自己的「算力城堡」。
第二,把「算力主权」攥在自己手里,要这份确定性。
你品品,在这个行业里,比芯片贵更可怕的,是有钱都买不到。英伟达产能就那么点,老黄肯定先紧着大客户来,还得平衡各方的利益。
但定制 TPU 这套方案,是 Anthropic 和博通、谷歌单独开的「小灶」。什么时候交货、要什么配置参数、要多少量,全由自己说了算。
AI 行业拼时间窗口,这时候这份「确定性」,比单纯的「性价比」值钱多了。
要说第三点,智远认为,是想把软硬一体做到极致。
这就跟苹果做 M 系列芯片一个道理,英伟达 GPU 像个「全能厨师」,虽说啥菜都能炒,但样样都会的代价,效率肯定有损耗。
Anthropic 这批定制芯片,从电路设计的那一刻开始,就为自家 Claude 模型量身定做的。
算法需要多大的内存带宽,芯片就配多粗的「水管」;模型需要什么样的计算矩阵,芯片就留好对应的「车位」。这种量身定做的鞋,肯定比英伟达那种「均码」的鞋,穿起来跑得快、还省力。
所以,你别看 210 亿美金是个天文数字,在高盛的成本曲线里,这说不定是 Anthropic 做过最划算的一笔买卖。
而这笔生意,也放出了一个特别危险的信号:
大模型行业阵营,正在加速分化;有钱、有技术、还有巨头撑腰的 「大户人家」,正靠着定制化算力,把和普通玩家的差距越拉越大。
03
高盛报告里,博通的地位高得很。 为啥?因为在AI芯片的新战场上,博通完成了身份跃迁:从单纯的「芯片设计公司」,变成了「AI军火商的总装厂」。
现在博通,成了各大科技厂的「白手套」+「代工厂」。看这几个例子就懂了:
谷歌TPU v7的核心互联技术,是博通做的;亚马逊Trainium,博通参与了设计;Anthropic那210亿的大单,据说也是找博通定制的。
它的商业模式可比英伟达鸡贼多了,英伟达卖整卡赚高毛利,但风险也大;博通走「NRE + 量产分成」路子。
啥是NRE?
定制研发费。大厂找博通做定制芯片,得先付一笔巨额研发费,不管最后芯片成不成,这笔钱博通先揣兜里。要是做成能量产了,每卖一颗芯片,博通还能再抽成。
这就意味着,博通无论成败都稳收钱,英伟达却得把芯片卖出去才能赚钱。
经济下行时,谁的生意更稳,一眼就能看出来。 大厂为啥离不了博通?因为现在的AI芯片,拼「连接」的本事。
TPU v7除了制程,最核心的是博通的光互连技术和CoWoS封装能力;简单说,博通攥着独门技术,能把几百个芯片像搭积木似的高效堆在一起,还不发热、传数据不堵车。
这种技术壁垒,比单纯做个GPU高多了。
更狠的是,博通不光卖硬件,还卖全套解决方案。 Meta、微软这些想做自研芯片的大厂,最大的难题是不懂硬件。
博通直接拍胸脯,没关系,你们只管说模型参数就行,剩下的电路设计、封装、测试,甚至帮着跟台积电砍价,我全包了;它直接把芯片设计的门槛,从需要专业博士团队,降到了只要有钱就能做。
这一下就带火了整个ASIC定制芯片市场,每多一家公司做定制芯片,博通就多一份收入,它是自己把蛋糕做大,再在每一块蛋糕上都咬一口。
英伟达虽说实力强,但现在的市值里,掺了太多「永远高速增长」的预期,一旦增长慢下来,股价很可能暴跌。
博通就不一样了,它的客户遍布苹果、谷歌、亚马逊,就连英伟达自己,都得找博通供货,收入来源特别分散,抗风险能力拉满。
高盛最看重「确定性」,AI行业从之前的狂热,慢慢走向理性的过程中,英伟达可能会因为业绩波动,股价跟着震荡;但博通这种赚「过路费」的,业绩稳得像印钞机。
所以啊,当所有人都盯着英伟达股价时,聪明钱早就悄悄流向博通了。
04
说到这,可能有人会问,这套ASIC崛起、算力大幅降本的逻辑,对中国到底意味着什么?
答案很明确,「制裁」反倒倒逼出了中国版的ASIC加速潮。不少人觉得中国AI被卡脖子,因为拿不到英伟达的芯片,但换个角度想,这反倒逼着我们提前走上了谷歌、亚马逊那条路。
既然买不到最强的通用GPU,那就只能死磕专用芯片。
你看华为昇腾,还有字节、腾讯、百度,都在悄悄招兵买马做自研芯片,逻辑跟Anthropic完全一样:既然通用芯片买不到、也买不起,那干脆为自己的模型量身定做。
高盛报告里TPU v7降本70%的事儿,在中国正以更激进的节奏上演,毕竟对中国企业来说,这是能不能活下去的生存题。
这里面的投资机会也很清晰,国内AI芯片设计公司,正迎来黄金窗口期,比如:寒武纪、海光,还有那些没上市的独角兽,只要性能能达到英伟达的八成,价格再砍一半,大厂们肯定会抢着要。
不过有个扎心的现实:
中国不缺英伟达式的企业,更缺博通这样的角色。咱们能做出设计得还不错的计算芯片,差不多对标GPU、TPU那种,但在先进封装、光互连、Chiplet芯粒这些技术上,跟博通、台积电还有不小的代差。
高盛为啥力挺博通?
它攥着把芯片「拼起来」还不堵车的核心技术。这对我们来说,也很明确,单纯做计算芯片的公司只会越卷越凶。
而掌握「连接技术」和「封装技术」的上游企业,才是中国版的「博通」,也是整个产业链里最稳的「卖铲子的人」,比如:做光模块的光迅科技,做先进封装的通富微电、长电科技。
机会就藏在先进封装(像CoWoS、Chiplet)和高速光互联这两条产业链里,这些都是刚需基建,不管最后哪家芯片胜出,都离不开。
而且国内应用层爆发,大概率会比美国更猛。
要是博通、ASIC真能把推理成本压到现在的十分之一,对咱们这种手握海量数据、应用场景的公司来说,绝对是天大的利好。
你可以想象下,调用一次大模型的成本,从5分钱降到5厘钱,那些因为成本太高不敢深用AI的行业,比如:短剧、游戏、电商、教育,肯定会瞬间爆发。
所以,别总盯着做大模型的「卷王」,他们现在还在亏钱呢,不如多关注能把AI低成本落地的「场景玩家」。
不过,最后我也得泼盆冷水。中国厂商有个通病,哪个赛道火,就一拥而上搞低价内卷,到最后把利润压得薄如纸,还把技术做烂了。
美国的ASIC是巨头带着博通搞高端定制,可要是国内都扎堆去造低端ASIC芯片,最后,大概率又是一地鸡毛。
真正的机会,只属于有核心壁垒的公司;要么,有独家的模型算法;要么,有独家的芯片架构、要么有独家的封装技术,就像博通。
只会组装显卡的二道贩子,在这个时代活不过三集。
本文来自微信公众号“王智远”,作者:王智远,36氪经授权发布。















