硅谷“赌”AI最狠的基金:非原生AI公司要么进化,要么消失
在这一轮AI 浪潮里,a16z几乎是绕不过去的名字。
它是这波AI 周期里下注最重、覆盖最全、确定性也最高的顶级基金之一。过去五年,a16z 投出的名单几乎定义了硅谷的技术主线:
OpenAI、SpaceX、Databricks、Figma、Stripe,以及新一代迅速崛起的 Cursor、Harvey 和 Abridge。
某种程度上,a16z 的投资组合,就是过去几年 AI 商业化路径的一张缩略图。
更重要的是,a16z 的判断往往并不止于“投了什么”,而在于他们如何解释这些变化。不久前,a16z 合伙人David George系统性地分享了他对 AI 行业最新进展的观察,其中有几个信号非常值得一看。
第一,AI 公司正在用更少的人,跑出更快的增长。
当前增长最快的一批AI 公司,在销售和市场上的投入,反而显著低于同阶段的 SaaS 公司,但收入增速却高出数倍。这并不是效率魔法,而是一个更简单的事实:需求端正在真实爆发,产品在“自己卖自己”。
第二,衡量效率的标尺正在被重写。
a16z 开始越来越多地关注一个新指标:ARR per FTE(人均年度经常性收入)。
在最优秀的 AI 公司中,每名员工对应的 ARR 已达到 50 万到 100 万美元,而 SaaS 时代的经验值大约只有40 万美元。这意味着,AI 正在系统性抬高组织效率的上限。
第三,非AI 原生公司只剩下两条路。
要么完成转型,要么被淘汰。那些真正跑出来的转型公司,往往具备高度一致的特征:
CEO 亲自下场推动;从最容易见效的环节切入(客户支持、编码、运营);敢于推翻旧系统,为 AI 重建后端,而不是在旧架构上“贴一层 AI”。
接下来,就跟着硅基君一起,拆解a16z 眼中这场变化,正在如何发生。
增速是SaaS公司2.5倍,最高同比增长700%
真正让我们感到震撼的,是需求侧的变化。
从增长数据和一线接触来看,当前AI 公司的需求强度,用“疯狂”来形容并不夸张。
无论是产品吸收速度,还是收入增长质量,都显著好于过去几个周期。尤其是在经历了2022–2024 年的加息环境与科技回调后,2025 年成为一个明确的拐点:收入重新加速,而且是跨公司类型的加速。
更重要的是,这种加速并不是靠“砸销售、堆市场”换来的。
恰恰相反,增长最快的一批AI 公司,在销售和市场上的投入,反而显著低于同阶段的 SaaS 公司,但收入增长速度却高出数倍。
从数据看,AI 公司的增长速度大约是非AI软件公司的 2.5 倍以上,其中最极端的头部公司,年同比增长甚至接近 700%。这些数字在最初出现时,我们自己都反复核验过,但它们与我们在投资组合中看到的实际情况是高度一致的。
这背后的核心原因只有一个:产品本身的需求足够强。
从成本结构看,AI 公司目前的毛利率普遍低于传统 SaaS。但这并不一定是坏事。
某种程度上,我们甚至把“较低毛利率”视为一个积极信号——它往往意味着客户正在真实、高频地使用 AI 功能,推理成本是真实发生的。
考虑到推理成本在中长期具备持续下降空间,这种结构更像是“暂时的成本压力”,而非模式缺陷。反倒是那些号称 AI 产品、却拥有异常高毛利率的公司,反而会让人怀疑:客户到底在不在用 AI?
另一个变化更值得注意。我们开始越来越多地关注一个新的效率指标:ARR per FTE(人均ARR)。
它衡量的是公司在整体运营层面的效率,而不仅仅是销售效率。结果非常清晰:
最优秀的AI 公司,每名员工对应的 ARR 水平已经达到 50 万到 100 万美元,而 SaaS 时代的经验值,大约只有 40 万美元。
这并非因为AI 公司“更省人”,而是因为需求过强,产品几乎可以自己卖出去。
AI转型该怎么做?
对于那些非AI 原生公司来说,一个更现实的问题是,它们应该怎么办?
在我看来,只有两种选项,要么适应,要么被淘汰。
要想适应AI,不仅意味着在产品前端“加一个 AI 功能”,而是要从根本上重新思考:
如果AI 是默认能力,产品形态、工作流、用户价值该如何重构。
与此同时,后端的组织方式也在被迫改变。很多时候,AI变革的核心不在于企业是否“想用 AI”,而在于能否真正完成适应AI时代的管理变革。
在与大量财富500 强 CEO 的交流中,几乎所有人都表达了同一种态度:
我们必须适应 AI。但态度和结果之间,往往隔着一整套组织惯性。哪怕只是让员工习惯使用 AI 助手,都已经非常困难;更不用说重构业务流程、决策机制和系统架构。
真正的转型,往往从CEO 的强势推动开始。Shopify 之所以能做成,是因为 Toby 从高层开始用 AI 重写经营方式,把它变成绩效管理的一部分。
你需要一种罕见的组合:既有商业直觉,知道AI 的价值创造机会在哪里;又有技术深度,知道应该重构什么、先做什么、怎么迭代。
那些真正跑出来的公司,往往具备两个特征:
第一,知道从哪里下手(例如客户支持、编码、运营);
第二,敢于推翻旧系统,为AI 重建后端。
当然,也会有一些其他的因素影响。比如,数据基础设施也很关键,把数据集中到云数据仓库或数据湖,本质上是在为AI 工作负载铺路。
而当他们开始快速推出原生AI 产品,这种迭代速度会成为新的护城河。
这种差异已经开始体现在结果上。Chime 的客服支持成本下降了 60%;Rocket Mortgage 在 Consider underwriting 环节节省了 110 万小时的人力,相当于每年约 4000 万美元的成本。
一些传统软件公司的CEO,已经开始用极端但真实的方式提问:这件事,是用“电”(AI))完成,还是还需要“血”(人力)?
比如,Navan(企业差旅与费用管理公司) 很早就启动了AI 化改造,如今 AI 已经处理了大约 50% 的用户交互,涵盖的是复杂的行程预订和变更,而不是简单问答。
这种深度自动化,直接反映在财务指标上:
过去三年,Navan 的毛利率提升了约 20 个百分点。对比那些没有完成转型的老牌竞争对手,这几乎是“代际差距”。
还有一些公司,其价值并不只体现在财务上。
Flock Safety的核心价值主张是公共安全。它的系统每年帮助解决约 70 万起犯罪事件,在覆盖区域内,犯罪率下降接近 10%。这类公司往往同时具备强商业模式和强社会影响力,是我们长期非常看重的一类资产。
当然,我们并不认为所有公司已经完成了彻底重构。至少现在,更多公司仍处在“被需求推着跑”的阶段,而不是主动重塑运营模型。但可以确定的是,这种重构将在未来 12 个月内密集发生。
AI被忽视的价值:放大需求
我们最感兴趣的另一个问题是:这些AI公司到底在“真实世界”里做了什么?
一个被频繁讨论的行业是法律。直觉上,AI 似乎应该减少律师工作量,但现实恰恰相反。
一位公司法务最近在公开场合半开玩笑地说:“大模型让我更忙了,因为每个客户现在都觉得自己是律师。这并不是坏事,而是需求被放大的信号。
Harvey 是一个典型案例。随着模型推理能力的提升,律师在 Harvey 产品上的使用时长大约翻了一倍。
律师并没有被替代,但效率显著提高。
更重要的是,这种效率并不是靠“少人化”实现的,而是靠更深的产品参与度。这正是我们判断收入是否可持续时最看重的指标之一:留存、续订、使用频率和真实参与度。
同样的逻辑也出现在医疗领域。Abridge(医生常提到的那座“桥”)被不少医生形容为“值得信赖的代理人”。
我们观察的不是用户增长本身,而是用户增长与参与度是否同步提升。结果恰恰相反:
即便在用户规模快速扩张的情况下,单用户使用深度依然稳定甚至上升。
这意味着新增用户并没有稀释产品价值,反而验证了产品的通用性和粘性。
在基础能力层面,声音正在成为许多AI 工具的核心入口。
ElevenLabs 的使用量增长曲线非常陡峭,是我们最喜欢看到的那种“真实需求型增长”。同时,这家公司在运营效率上也极其克制,是 AI 公司中少见的“高增长 + 高效率”样本。
AI泡沫言之尚早
AI 的资本开支规模确实巨大,但与过去泡沫周期不同的是:这轮投入主要由历史上最盈利的一批公司支撑,现金流基础扎实。
从目前看,至少在Meta、Microsoft、AWS、NVIDIA 这些主体身上,资本结构仍然是可控的。
微软的披露数据给了一个很直观的对比:Microsoft Azure 花了 7 年时间,才达到如今 AI 一年收入的规模;而 AI 相关收入的增长速度,显著快于当年的云计算。
构建周期在压缩,回本周期也可能更快。
这也是我们最终的判断:AI 可能是我职业生涯中见过的、最具模型破坏性的技术浪潮。它往往在早期显得“昂贵”,但历史一再证明,真正改变世界的技术,最终创造的价值,几乎都会大幅超出任何早期模型的预期。
我们其实不太需要把注意力放在折旧这件事上,但金融市场确实很爱追问:旧一代芯片会不会很快变成“负资产”?
我们的观察更接近结论是:旧GPU 的定价与利用率,比想象中稳定。
原因很现实。早期用户可能会在某一代模型上停留更久,但绝大多数后续用户会迅速迁移到更新的模型与更合适的硬件配置。
更关键的是,旧卡并没有因此“躺平”。以 TPU 为例,谷歌披露过某些已经 7 到 8 年历史的 TPU 仍能做到接近满负载;
二级市场上,无论是旧卡的成交价格,还是“一次性租 100 张卡”的报价,都呈现出强韧性。H100 的租用表现尤其突出。
换句话说,在真实需求仍然持续扩张的阶段,旧卡更像是被市场充分榨干的存量资产,而不是会迅速被抛弃的包袱。
这类讨论之所以热闹,更多来自对“系统性风险”敏感的那群人,而不是来自数据本身。
更有意思的,是市场正在反复上演一个典型悖论:代币越来越便宜,但总消费不降反升。几乎所有超大规模云厂商都在强调同一件事:需求远超供给。
一个形象的类比来自Gavin Baker:互联网时代会出现“暗光纤”,先铺好但暂时不用;但在今天,几乎不存在“暗 GPU”。
GPU 一旦进数据中心并接入系统,往往会立刻满载。这种“供给一上线就被吃干净”的现象,本质上是一种强信号:需求不是被营销堆起来的,而是被生产环节直接消化掉的。
但如果你问为什么我们还没有看到企业全面、指数级的生产力跃迁,答案通常不在技术,而在管理。
技术准备好了,产品化与变革管理没准备好。把模型能力变成企业可复用的工作流,把试用变成长期留存,把“能做”变成“真的上生产”,这是最慢、也最难的一段。
放到收入层面,这种速度差异更直观。生产级AI 在应用收入里增长得非常快,快到在某些时间轴上几乎“看不见起步阶段”。
你提到那张对比图很关键:2020 年公共软件公司新增收入大约 460 亿美元;而如果只把 OpenAI 与 Anthropic 按运行率口径简单相加,它们的新增收入几乎已经接近这个数字的一半。
再把时间推到2026 年,如果把范围扩展到整个公共软件行业,包含传统软件公司在内,模型公司带来的新增收入占比可能会进一步升到 75% 到 80%。
高盛一类机构会估算“构建 AI”带来的收入规模,比如 9 万亿美元;如果假设 20% 的利润率,再给一个 22 倍 PE,对应的新增市值可以到 35 万亿美元。
过去几年里,市场已经先行计入了很大一部分新增市值,可能在24 万亿美元量级。你当然可以争论这是不是都由 AI 驱动,但这套推导至少回答了一个问题:如果关键假设成立,市场还有上行空间;如果假设不成立,回撤也会很直接。
另一套更“工程化”的算法,是从资本开支反推收入门槛。
假设到2030 年,超大规模厂商累计资本开支接近 5 万亿美元;如果投资者希望获得 10% 的门槛回报,那么到 2030 年,年化 AI 收入大致需要到 1 万亿美元量级。
这个数字听上去夸张,但换个尺度感就容易理解:1 万亿美元约等于全球 GDP 的 1% 左右。也就是说,只要 AI 在十年内吃下全球 1% 的产出,就能让这笔规模巨大的投入在财务上“站得住”。
当然,它也可能不会恰好在2030 年兑现,可能是更长周期的回收,但逻辑框架可以先立住。
而对“我们离 1 万亿美元到底有多远”的追问,最现实的答案往往也很粗糙:我们可能还在 500 亿美元左右的量级。
它增长极快,年增速接近 100%,但统计口径很难完美,因为大量模型收入会以云服务、平台增量的方式被“藏”在大厂的财报里,甚至取决于公司想怎么讲故事。
本文来自微信公众号“硅基观察Pro”,作者:硅基君,36氪经授权发布。















