Anthropic CEO:把模型一路做大,就真能到 AGI 吗?

AI深度研究员·2025年12月05日 09:20
Anthropic CEO:规模扩张可达AGI,但需警惕经济风险。
Anthropic
C+轮海外2019-02
人工智能安全和研究公司
我要联系

2025 年 12 月 4 日,纽约曼哈顿。

《纽约时报》DealBook峰会上,主持人 Andrew Ross Sorkin 问了一个所有人都在想的问题:到 AGI(通用人工智能),还需不需要再来一次像 Transformer 那样的技术突破?

Anthropic CEO Dario Amodei 的回答是:

No,I think scaling is going to get us there.(不用,我认为持续扩大规模就能让我们到达那里)

把模型做大,把算力往上堆,按照这条扩展曲线持续推进,总有一天会撞上类人智能的临界点。

但他紧接着泼了冷水。

技术层面,他非常有信心;经济层面,他看到的却是巨大的不确定性。

Anthropic 过去三年营收增长 10 倍,但Amodei在台上给出的预测模型显示:未来 Anthropic 收入可能在 200 亿到 500 亿美元之间波动。只要在数据中心投资上算错时间点,就可能从盈利轨道滑向现金流危机。在他看来,一些玩家正在用激进方式下重注,把整个 AI 行业推向泡沫边缘。

这场对话引出了三个值得深入的问题:

持续扩大规模究竟是怎样的技术路线?

为什么 Amodei 坚信这条路,却又不断强调经济风险?

当 AI 开始重构工作方式,社会准备好了吗?

第一节 | 技术路线:Scaling Law的十年证明

不是所有人都敢把 AGI 的终极路径,说得像流水线一样简单。但 Dario Amodei 敢。

他说:

“我过去十年一直在观察 Scaling Law,从GPT 到 Claude,我们都是在这条路上。”

在这场采访里,他这样描述 AI 能力演化:你往模型里加数据、加算力、加结构上的小改动,它就会自然变强。没有神秘点,没有范式突破。推理会提升,代码会更好,科学、法律、金融、材料……模型在所有方向一起进步。

这是他的亲身经历。从GPT-2、GPT-3的早期主导者,到如今带领 Anthropic 发布 Claude 4.5。

1、Claude 的证明:不是在进化,而是在放大

在 Amodei 看来,Claude 的强大不是因为架构更复杂,而是因为整个系统沿着Scaling Law 做到了足够大、足够稳、足够实用。

Claude Opus 4.5 的发布就是一次集中展示: 在SWE-bench Verified编码测试中达到80.9%,超过GPT-5.1的77.9%和Gemini 3 Pro的76.2%;在科学推理、金融应用、生物医学数据处理上,Claude 不只是能用,而是开始产生真实的决策影响。

更关键的信号来自 Anthropic 内部。

Amodei 透露,他们的工程师已经不再打开编辑器从头写代码,而是让Claude生成第一版,自己只做编辑和审核。

2、Scaling Law 的验证路径,也是一条产品化试验线

Amodei不只是相信 Scaling Law,他在用真金白银验证它。边走边投,边验证边调整。

Anthropic 三年营收曲线就是最直接的证明:从零到1亿美元,再到10亿,今年预计达到 90 亿美元。模型能力提升,企业需求跟着增长;需求增长,又推动模型继续进化。

Claude 没有做成爆款对话产品,而是深入企业一线:开发工具、自动化助手、科研合作者。这种更慢但更宽的能力拓展路径,正是 Scaling Law 在商业化层面的体现。

不是打造一个天才,而是批量复制靠谱的合作者。

他不是在等 AGI 奇点,而是在把 Claude一步步打造成一整条生产线。这条生产线积累的数据、经验、客户关系越多,就越难被复刻。

扩大规模不只是把模型做大,更是把这些积累变成竞争壁垒。

别人还在争论要不要相信 Scaling Law,Anthropic 已经用它建起了护城河。

第二节 | 经济账本:500亿投资如何不翻车

Amodei 对Scaling Law 的技术路线有信心,但他也强调:能不能做到是技术问题,做不做得起是经济问题。

模型可以持续变强,但你也必须算清楚经济账:哪一年能赚钱、要买多少芯片、什么时候可能资金断裂。

他说:

“我们每年收入翻十倍,但我必须今天就决定,要不要买 2027 年的计算资源。”

1、500 亿投入,是押注也是赌未来

Anthropic 公布了一个惊人的数字:未来四年将在美国投资 500 亿美元用于 AI 基础设施。这包括德州与纽约的数据中心,以及对微软 Azure云平台 300 亿美元的采购承诺。

但 Amodei 给出的解释是: 如果我买少了,客户排队排不到就走了;如果我买多了,收入没跟上,现金流撑不住,甚至有破产风险。

他提出了一个核心概念:不确定性锥形(cone of uncertainty)。

这不是 PPT 上的增长曲线,而是 Anthropic 内部做战略预算时真正画出来的风险模型:Anthropic 明年的收入可能是 200 亿美元,也可能是 500 亿美元,这种巨大的不确定性决定了现在该买多少算力、能承受多大风险。

2、YOLO派和保守派的路线分叉

而 OpenAI 的路线截然不同。

虽然 Amodei 没有直接点名,但他在采访中提到了 Sam Altman 从巨额亏损冲向 2030 年盈利的计划,并评价道:

“我们看到有公司在YOLO(孤注一掷),把所有筹码都押上了,几乎不给自己留容错空间。”

Anthropic 的选择是另一条路:

所有算力采购按最坏10%的收入预期做预算

保留高利润率,用于覆盖未来两年scaling投资

放弃消费级入口,只服务企业客户,减少不确定变量

这不是慢,而是先确保企业能活下去。

为什么如此谨慎?因为Amodei对未来的高增长保持怀疑。

他在对话里说: 过去三年,每年收入翻10倍。如果我照这条线继续推,就是明年1000亿。 但我不相信真会这样增长。那只是理论上的最好情况。

他强调的是经济可行性,不是技术可能性。Claude Opus 4.5能力再好,如果企业不续费、数据中心养不起、资本断供,那Scaling Law再正确,也推不动。

真正的路线判断不是能不能做,而是值不值得投、投不投得起。

第三节 | 社会影响:谁受益,谁被替代

对于 Dario Amodei 来说,AGI 不是终点,只是过程。

技术能力每年增强,但普通人并不会自动跟上。AI 可以快速写代码、做科学研究、处理金融建模,

但谁来决定它该做哪件事?

谁来负责它做错时的后果?

谁从中受益,谁最先被替代?

这才是他更关心的问题。

1、AI 变强的同时,工作正在加速重构

Anthropic 在今年 8 月做了一次内部研究,调研了 132 名工程师和研究员。结果显示:AI 工具确实提升了生产力,让工程师能够处理超出原有专业范围的任务。但同时削弱了团队协作、导师制度和技能发展路径。整体趋势是,团队正在变成少数高手+AI的组合

更关键的变化是:入门级工程师的工作正在被 AI 取代,写代码变成了监督代码,技术岗开始往全栈、策略、审校方向转移。

这不只是效率提升,而是职业路径的根本重构。

当新人无法通过写简单代码来积累经验时,如何培养下一代技术专家?这是 Anthropic 内部也在思考的问题。

2、Amodei的预测:比你想的更冷静,也更现实

在这场 DealBook 对话之前,Amodei已经在11月中旬的 CBS《60分钟》节目中直面过一个问题:AI 是否会让大批人失业?

他的回答很直接:是的。

AI 取代的第一批人不是工人,而是入门级白领,特别是那些在保险理赔、客服、行政、初级技术支持等岗位上工作的人。这些岗位很可能会面临大规模的工作转型压力。

但他不是为了制造恐慌,而是提出了三层解决方案:

企业层面:

不要只用 AI 减人,更要用 AI 放大人的价值。Claude 的正确用法是让一个人做原来 10 个人的产出,而不是裁掉 10 个人。

政策层面:

政府需要参与再培训,但更重要的是分配机制。如果 AI 带来每年5%-10%的经济增长,那是一个可以再分配的超级大蛋糕。

社会层面:

长期来看,人类社会的结构要调整,不再把工作当成唯一意义来源。这不是乌托邦。早在1930年,著名经济学家凯恩斯(John Maynard Keynes)就在《我们后代的经济可能性》(Economic Possibilities for Our Grandchildren)中提出过这个预言:技术进步可能最终解放我们,不再为了生存而工作。

未来,问题不再是 AGI 能不能做出来,而是你准备好怎么与它共处了吗?

这条扩展路线不只是技术问题,更是社会问题。谁能率先摸索出人机协作的有效模式,谁就赢得了未来。

结语 | 能到 AGI,前提是活着到

Dario Amodei 不是来讲 AI 奇点故事的。

他讲的是一条用数据和财务验证过的路线:Claude 每年变强一点,处理代码bug、生成科学推论、搭建专业工作流。这背后是 Amodei 十年如一日相信的一件事:Scaling Law 不靠灵光一现,只靠一步步推演。

他用它造出了 Claude,也用它规划了 500 亿美元的投资、90 亿营收目标和风险缓冲线。

核心问题不是“我们快到AGI了”,而是我们能不能在做出 AGI 的过程中活下来。

别人在赌谁先做出突破,Anthropic 在算谁能撑到终点。

把模型一路做大,就真能到 AGI 吗?

Amodei 的回答是:可以。前提是你准备好了承担相应的经济风险和社会责任。

📮原文链接:

https://www.youtube.com/watch?v=FEj7wAjwQIk&t=1s

https://www.anthropic.com/news

https://releasebot.io/updates/anthropic

https://vechron.com/2025/12/anthropic-hires-wilson-sonsini-ipo-2026-openai-race/

https://www.cnbc.com/2025/12/03/anthropic-claude-reportedly-preparing-ipo-race-openai-chatgpt-ft-wilson-sonsini-goodrich-rosati.html

本文来自微信公众号“AI 深度研究员”,作者:AI深度研究员,36氪经授权发布。

+1
22

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

报道的项目

Anthropic
我要联系
人工智能安全和研究公司

下一篇

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业