a16z 创始人:AI 价格打下来了,机会才刚开始

AI深度研究员·2026年01月09日 09:15
AI成本暴跌,智能变日用品,商业规则重塑。

进入 2026,硅谷最会押趋势的那批人,开始强调一个更底层的逻辑:AI 不是先变强,而是先变便宜。

1月7日,a16z 创始人 Marc Andreessen(马克·安德森)在自家播客上做了一场访谈,核心观点是:

AI 是他见过最大的技术变革,但关键不在于模型能力的突破,而在于智能本身正在从奢侈品变成日用品。

调用一次 AI 的成本,正在以惊人的速度往下掉。不是降了一点,是断崖式暴跌。

Marc 同时强调:现在还早。成本已经降下来了,但大部分机会还没被创业者发现。

他这场访谈不谈技术前景,也不谈市场泡沫,而是聚焦一个更具体的问题:如果智能像水电一样便宜且随处可得,商业规则会怎么变?

变化体现在四个方面:成本结构、技术路径、定价模式、竞争格局。

现在的 AI,不是谁更强,而是谁先把便宜智能变成标准流程。

第一节|崩的是价格,起飞的是收入

Marc Andreessen 首先指出:AI 的智能成本正在暴跌

他说:

“AI 的单位成本,下降速度比摩尔定律还快。”

模型越训练越强,但每次调用 AI 所需的成本,反而越来越低。不是降一点点,而是断崖式往下掉。

他特别提到:过去一年,大模型的 token 成本正在快速下滑。OpenAI、Anthropic、Google 都在把自己的 AI 能力接入云服务,谁都想多拿市场份额。竞争一激烈,价格自然一落千丈。

硬件端的使用年限也变了。Marc 引用了一条 AWS 的数据:GPU 的使用寿命从 3 年延长到 7 年以上。

企业买一块卡、建一个服务器,能跑 AI 的时间直接翻倍,摊到每次调用上的成本,就降了一半还多。

这意味着什么?智能正在变成一种可批量采购、按需计费的新材料。

而且成本下降的同时,收入却在快速增长。

Marc 用“起飞”来形容 AI 公司最近一年的变现速度。他说:我们看到的 AI 公司,收入增长速度比以往任何一波技术周期都快。

具体看两端:

个人端:越来越多消费者愿意为 AI 服务付高价订阅。 20 美元/月不再是上限,现在 200~300 美元/月的高级套餐也开始有大量付费用户。

企业端也一样:AI 能帮客服多处理一个工单、帮销售多挽回一个用户,光这些日常工作,就能带来直接回报。只要能带来结果,就有人愿意花钱用。

也就是说:价格在掉,价值在涨

在 Marc看来,这恰恰说明:AI,不是泡沫,而是开始变成真生意了。

第二节|AI 不用做最强,用得起才是关键

第一节说了成本在崩,但为什么崩?

因为 AI 不是非要做到最聪明才有用。

Marc Andreessen 在对话中举了一个形象的例子:有些工作任务,不需要“爱因斯坦”大脑来解决,只要一个聪明、靠谱的普通人就足够。

这点破了一个很多人没注意到的机会:模型不需要越大越好,够用就行,尤其是在成本敏感的场景下。

过去一年,大量小模型开始冒头。Marc 特别提到国内的 Kimi 模型:最新版 Kimi 在推理能力上已经追平了 GPT-5,但模型体积更小,成本更低,可能在 MacBook 上就能跑。

他观察到一个规律:大模型推出后,6 到 12 个月,就会出现同等能力的小模型。

大模型证明某个能力可行,小模型快速复制,然后以更低成本提供。

这带来两个现实变化:

一是使用方式变了:AI 正在从高高在上的聪明大脑变成随手可用的小工具;

二是开发方式变了:初创公司、独立开发者都可以拿开源模型,快速部署上线,甚至自己微调一套专用模型。

但这不代表大模型会消失。

Marc 认为,AI 行业会形成金字塔结构:

顶端:少数超级模型,在巨型数据中心运行,永远是最聪明的

底层:大量小模型,扩散到各种设备里,运行在手机、手表、甚至每个物理物品内部

就像计算机行业的演化:超级计算机没有消失,但真正改变世界的是无处不在的微芯片。

所以真正的机会在哪?

不是去做最强,而是:谁能把智能压缩、量产、变成随时可调用的标准件,谁就能抢占最大的市场。

因为当智能不再稀缺,拼的不是最强,而是“用得起”。

第三节|AI 应用不只是套壳,定价方式决定天花板

过去一年,很多人看 AI 应用公司时会说:这不就是套了一层 GPT 接口?

Marc Andreessen 不这么看。

以 AI 编程工具 Cursor 为例:一开始确实是调用大模型辅助编程,但很快,这类公司开始自己微调模型、甚至自研模型。产品不是换个壳,而是在功能、速度、成本上做了深度优化。

他把这个叫做“向后整合”。

换句话说,以前是前端产品,后端调用别人的 API,现在是:

从一个模型起步,最后用 12 个、50 个、甚至上百个模型

不同模型负责不同部分:界面回复、代码逻辑、上下文记忆

针对垂直场景,自己训练定制模型

这不是为了技术而技术,而是为了掌控技术栈。因为对业务理解最深的人,才知道哪些环节需要什么样的智能。

Marc 说,最前沿的 AI 应用公司,实际上掌握了核心技术。

那么 AI 应用在定价上呢?

这里的规则和第一节不一样。第一节说,基础设施层(OpenAI API)在打价格战,成本暴跌。但应用层的定价逻辑完全不同。

因为定价逻辑分层了

基础设施层:智能变成水电,按使用量计费,竞争激烈,价格往下走

应用层:产品卖的是结果,按价值计费,差异化大,价格可以往上走

关键在于:不要按成本定价,要按价值定价。

传统 SaaS 按年订阅、按坐席收费,但 AI 应用可以探索更多可能:

不是按“生成了几份文档”收费(使用量)

而是按“节省了多少工时”收费(价值)

或者按“提升了多少生产力”分成(回报)

举个例子:如果一个 AI 编程工具让程序员效率提升 30%,它可以收走这 30% 生产力带来的部分价值,而不是只收调用了多少次 API的成本。

为什么高价产品反而好卖?

因为用户买的不是模型,而是结果。只要结果值这个价,就有人付费。

这就解释了第一节提到的现象:200~300 美元/月的订阅越来越多,本质上这些产品在卖“解决了什么问题”,而不是“用了多少 Token”。

按照这个思路,应用层的机会在于:

向后整合,掌控技术栈

深耕场景,理解用户价值

按价值定价,而不是按成本定价

基础设施层会继续价格战,但应用层的天花板,取决于你能创造多少价值。

这个机会窗口,到底留给谁?

第四节|追赶只需要半年,不确定性变成了常态

很多人看 AI 行业,第一反应是:已经有 OpenAI、Anthropic 这些巨头了,我们是不是来晚了?

但实际情况是,一旦有人证明某件事可行,其他人追上来的速度会非常快。

几个具体的例子:

xAI 不到 12 个月追上行业前列: Elon Musk 的团队从零开始做 Grok,不到一年就把产品性能拉到了 OpenAI 和 Anthropic 的水平。

DeepSeek 用开源冲进主舞台:一家对冲基金背景的团队,用开源模型直接把能力推到全球视野,还能在本地运行。

多家中国公司同时追上:月之暗面(Kimi)、阿里巴巴(Qwen)、字节跳动、百度等,不到 12 个月都追到了前沿水平。

1、为什么追赶这么快?

Marc 给出了三个主要因素:

第一,开源降低了学习门槛:领先者做出了新突破,开源模型就把“怎么做”展示出来。任何人都能学习、复制、改进。

第二,知识扩散速度极快:现在世界上最好的 AI 人才,很多只有 22、23、24 岁。他们不可能在这个领域待很长时间,必然是过去四五年迅速成长起来的。如果他们能做到,未来会有更多人做到。

第三,成本已经不是门槛:前三节说的成本塌陷、小模型崛起、云服务竞争,都在降低做 AI 的资源要求。不需要几千人团队,也不需要数十亿美元,一个小团队就能快速验证想法。

2、这对不同角色意味着什么?

第一,对现有的 AI 公司来说,这是个坏消息

Marc 指出:当一家公司不知道该往哪个方向发展时,这是个大麻烦。因为公司必须做出选择,把资源押注在某个方向上。一旦押错了,竞争对手追上来,优势就消失了。

这就是他说的“万亿美元问题”:不是现成的答案,而是每个公司都要面对的战略不确定性。

第二,但对风投和创业者来说,这是个好消息

a16z 的投资策略是:不只投一个方向,而是同时支持多个有希望的路径。只要某种方法有可能跑通,就支持有人试一次。

对风投来说,不确定性意味着可以分散投资。

对创业者来说,不确定性意味着窗口还开着。

总结来说:

领先者不再安全。追赶只需要半年到一年,技术方法已经透明,成本也已经降低。

但这也意味着,追上之后你也会被追赶。持续竞争变成了常态。

结语|不是 AI 更强了,而是你用得起了

Marc Andreessen 说,AI 产业的转折点,不是模型多聪明,而是智能不再昂贵。

成本暴跌让智能变成了可以批量采购的新材料。小模型够用就能打,应用层可以按价值收费。而且追赶只需要半年到一年,领先者的护城河正在变浅。

这意味着什么?

模型再大,不如先落地。技术再强,不如用得起。

这场技术变革才刚开始,但商业竞争规则已经重写了。

📮 原文链接:

https://www.youtube.com/watch?v=xRh2sVcNXQ8&t=1s

https://www.iheart.com/podcast/867-the-a16z-show-30965806/

https://hai.stanford.edu/news/ai-index-2025-state-of-ai-in-10-charts

https://www.reuters.com/technology/artificial-intelligence/openai-unveils-cheaper-small-ai-model-gpt-4o-mini-2024-07-18/?utm_source=chatgpt.com

本文来自微信公众号“AI 深度研究员”,作者:AI深度研究员,36氪经授权发布。

+1
23

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

世界不能仅靠文字来理解,数字始终不可或缺。

17小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业