Sam Altman亲手拆掉了“AGI”这面大旗
“AGI不是一个特别有用的词。”8月11日清晨,OpenAI CEO Sam Altman在CNBC《Squawk Box》上轻描淡写的一句话,直接把自家官网挂了6年的使命宣言——“确保通用人工智能(AGI)惠及全人类”——推进了语义回收站。
三天前,GPT-5刚刚上线;同一天,媒体爆料OpenAI正与Thrive Capital洽谈以约5000亿美元估值完成新一轮老股转让。一边是史上最贵的AI公司,一边却是CEO带头“拆台”行业图腾。这一幕怎么看都像是科幻片里的反转桥段。
Altman的改口并非即兴发挥,而是OpenAI在技术、商业、监管三条战线上同步“换挡”的外显:
技术换挡:从“全能神”回到“多面手”,用分级能力框架替代“AGI or not”的二元叙事;
商业换挡:收入狂奔到年经常性收入(ARR)200亿美元,却仍坚持“长期亏损”,用资本杠杆对冲盈利压力;
监管换挡:主动稀释“AGI”概念,降低国会山对“一家私营公司即将造出神”的敏感阈值。
下文将用三条主线拆解这场“祛魅”运动背后的算盘与代价。
GPT-5没有“奇点”,只有“刻度”
一场“渐进式”发布会
8月8日,GPT-5向所有ChatGPT用户推送。OpenAI官方话术是:更聪明、更快、更有用,尤其写作、编程、医疗问答三大场景。然而社交媒体上的高频词却是“就这?”南安普敦大学Wendy Hall教授直言:“从各方面看,这是一次渐进升级,而非革命。”
如果我们把历次GPT模型按“参数量×训练效率×推理速度”做一个简化版的“能力刻度尺”,会发现:
GPT-3 → GPT-3.5:刻度+1,解锁Few-Shot提示;
GPT-3.5 → GPT-4:刻度+2,多模态、逻辑链显著增强;
GPT-4 → GPT-5:刻度+1.5,代码一次性通过率从67%提到81%,医疗
执照考试从80%升到87%。
每一次都更好,却没有任何一次出现“垂直陡增”。Altman在内部全员会上承认,按照他个人定义(“能够持续自主学习并自我改进的系统”),GPT-5离AGI仍有距离。
能力分级:OpenAI的新标尺
既然“AGI”已被宣布失效,OpenAI拿什么向客户和投资人讲故事?答案是“能力分级”。去年11月FinRegLab AI研讨会上,Altman首次提出用L1-L5框架取代AGI叙事:
L1 聊天机器人(Chatbot)
L2 推理者(Reasoner,人类水平的问题解决)
L3 代理(Agent,可执行多步任务)
L4 创新者(Innovator,可辅助科学发现)
L5 组织者(Organization,可完成整个组织的工作)
GPT-5被内部评估为“L2+”,即在某些子领域摸到L3门槛,但依旧缺乏长期记忆、自主规划与环境交互的闭环。这套说辞的好处显而易见:
对于客户:采购决策不再押注“全能神”,而是可落地的“能力模块”;
对于监管:把“一步登天”拆成五级台阶,减缓“奇点恐慌”;
对于投资人:把“终局估值”拆成“里程碑估值”,每一级都能再融资。
越赚钱,越亏钱
狂奔的ARR与烧钱的GPU
根据CNBC拿到的数据,OpenAI 2024年预计亏损50亿美元,对应收入37亿美元;而2025年ARR即将突破200亿美元,亏损却同步放大。Altman在镜头前直言:“只要模型能力曲线继续陡峭,理性选择就是持续亏损。”
把这句话翻译成财务模型:
收入侧:ChatGPT订阅(20美元/月)、API调用(每1k token 0.06美元)、企业定制(年费百万级)三线井喷;
成本侧:训练GPT-5一次性烧掉约6.3亿美元,推理成本随着用户量指数级增加;
资本侧:5000亿美元估值=未来现金流折现+“奇点期权”,后者需要持续讲故事。
换言之,OpenAI正在用“亏损”购买“更大亏损的权利”,只要故事不被证伪,资本就会继续加注。
从“非营利”到“半营利”再到“影子IPO”
2015年,OpenAI是非营利;2019年,转为“封顶盈利”;2025年,它正进行一次“影子IPO”——不上市,却让老股东和新基金以5000亿美元估值交易存量股。这么做的好处:
1、避开SEC繁琐披露,继续把训练数据、算法细节、安全风险留在黑箱;
2、避免公开市场季度财报对“长期亏损”的拷问;
3、用“稀缺老股”制造饥饿营销,把估值锚定在最高一级。
Altman在采访中笑称:“不上市真好。”翻译过来就是:只要还能用私募市场的“无限子弹”,就不会把自己放到聚光灯下。
把“造神”改写成“造工具”
华盛顿的“AGI过敏症”
2024年夏天,美国参议院举行了三次AI闭门简报会,主题从“AI安全”升级为“AGI治理”。议员们最担心的问题:如果OpenAI宣布实现AGI,是否意味着一家私营公司拥有了“准国家”级别的权力?
Altman在国会作证时,曾用“AGI就像电网”来打比方,试图说明OpenAI会成为基础设施而非权力本身。但显然,这套说辞未能打消疑虑。于是,2025年我们看到OpenAI主动“降格”:
不再提AGI时间表;
用“能力分级”取代“通用”;
强调“工具属性”,淡化“主体意识”。
欧盟AI Act的镜像
欧盟AI Act把AI系统按风险分为“最小、有限、高、不可接受”四级。OpenAI的L1-L5与欧盟四级有微妙的映射关系:
L1-L2对应“最小风险”,只需自我声明;
L3开始涉及“高风险”,需要第三方审计;
L5则触碰“系统性风险”,面临最严苛义务。
通过提前自我分级,OpenAI把监管博弈前置到“标准制定”阶段,而不是等到产品上线后被追罚。
谁受益,谁受伤?
受益者
OpenAI自身:概念降级换来监管红利、资本红利、客户红利三杀;
微软:Azure绑定OpenAI,5000亿美元估值越稳,云收入越稳;
应用层开发者:不用再猜“奇点哪天来”,直接调用API做垂直场景。
受伤者
竞品:Anthropic、Google DeepMind仍高举“AGI大旗”,显得不合时宜;
学术圈:AGI曾是AI伦理、AI安全领域最大的“科研经费磁石”,概念被稀释后,部分项目面临重新立项;
公众:在“狼来了”叙事反复拉扯后,对AI的敬畏感下降,可能带来新一轮“AI疲劳”。
当“造神”结束,“造利”开始
八年前,OpenAI用一篇《用强化学习打Dota2》的博客点燃了大众对AGI的想象;八年后,Sam Altman亲手把这段叙事收进博物馆。
AGI的大旗被折叠收好,但AI的镰刀和锤子仍在日夜轰鸣。历史从来不是线性上升,而是在“造神—祛魅—再造神”的螺旋里曲折前行。下一次,当某家公司宣布“已实现L4创新者”时,但愿我们仍能记起2025年8月,Sam Altman在CNBC镜头前那句轻描淡写的提醒:“重要的不是名词,而是刻度。”
本文来自微信公众号“山自”,作者:Rayking629,36氪经授权发布。