图灵奖得主 Yann LeCun:大模型是“死胡同”,下一步押在哪一条路?

AI深度研究员·2025年11月28日 09:40
LeCun离Meta创AMI,称LLM是死胡同,押注世界模型。

2025 年 11 月 19 日,图灵奖得主 Yann LeCun 宣布:自己将离开 Meta,转向创办一家专注 Advanced Machine Intelligence(AMI)的新公司。

这不是普通的高管跳槽。

(CNBC:Yann LeCun 即将离职,创立自己的初创公司)

这位图灵奖得主没有选择加入 LLM 的军备竞赛,而是投身一个被冷落多年的方向:世界模型。

LeCun 用了一个极端词语:大语言模型是通往人类智能的“死胡同”(dead end)。

在 11 月 23 日的一场题为《Do LLMs Understand?》的公开对谈中,他直接指出:LLM擅长语言表达,但缺乏对真实世界的理解。

几乎同时,OpenAI前首席科学家 Ilya Sutskever 在 11 月 25 日的播客中也提出:“Just Add GPUs(拼算力)”的时代结束了。

一周之内,两位深度学习先驱不约而同地质疑主流路线。

这不是偶然,而是技术路线集体转向的信号:后LLM时代,正在成形。

第一节 | 为什么他说大模型是死胡同?

在讨论世界模型之前,必须先搞清楚:为什么Yann LeCun 会把 LLM 称为“死胡同”。

他给出的答案,比外界以为的更系统。

① 模型越来越大,但理解没有跟上

LeCun 的原话是:LLM 在语言层面表现不错,但它们并不理解世界。没有常识,也没有因果关系,只是大量统计相关性的堆叠。

换句话说:规模能让模型更像会说话的人,但不能让它更像懂世界的人。

事实上,Meta 的 Llama 4 就是最好的例证。2025 年 4 月发布后,它在真实场景中的表现远不如基准测试,甚至被开发者质疑过度优化了评测指标。

正应验了 LeCun 的判断:语言流畅度提升了,但世界理解力没有跟上。

② LLM的能力天花板,已经在实验室里显露

他在公开对话中强调:我们看到性能正在饱和。更大的模型,不一定带来更高的真实智能。

训练数据正在逼近极限,算力成本呈指数上涨,而理解力却没有同步提升。

这就是他所谓的死胡同:继续堆算力,边际收益越来越低。

OpenAI前首席科学家Ilya Sutskever也访谈中表达了类似观点:单纯100倍扩大算力规模,不会带来质变。

③ 语言只是副产品,物理世界才是智能核心

他的核心观点是:

语言是人类智能的副产品,不是核心机制。

这句话背后的逻辑是:语言只描述世界的一部分,而真正的智能来自对物理世界的建模、预测和行动。

但LLM做不到这一点。它们连杯子为什么不会穿过桌子都不理解。它们知道语言中的规律,却不知道世界的规律。

飞机的设计灵感来自鸟类,但不是简单模仿鸟类的飞行方式。同样,智能也不是靠模仿语言表面规律产生的。

④ LLM做不到规划,更做不到行动

LeCun 的批判重点在于:LLM 只是在对话里看起来聪明,但在涉及多步骤推理、长期规划、具身交互时,能力骤降。

他举了一个刺眼的对比:

一个十几岁的孩子,20小时就能学会开车。 但我们到现在还没有level 5的自动驾驶。

一个孩子第一次就能清理餐桌、装满洗碗机。 但我们连能做家务的机器人都没有。

这些对比说明:智能不是说话的能力,而是行动的能力。而这恰恰是LLM的软肋。

LeCun 的逻辑不是反对大模型,而是认为:预测语言这条路走不到终点。

要想让 AI 真正具有理解、推理与行动能力,必须换一套架构。

第二节 | 世界模型:下一代AI要如何看世界?

如果语言模型无法理解世界,那该怎么建造真正的智能?

LeCun的答案是:让AI学会看世界。

他指出,未来的AI必须像人类和动物一样,能够从多模态输入中构建出对世界的内部理解,然后基于这个理解预测和行动。

这种能力,GPT-4没有,Claude、Gemini也都没有。但猫有,婴儿有,人有。

① 什么是世界模型?

LeCun 解释说:我们用预测下一个词来训练语言模型,是因为语言中词汇有限,可以枚举。但真实世界无限丰富,预测像素级别的未来根本不成立。

真实世界是高维、连续、混沌的感官流。人类不是通过预测下一个字来理解世界,而是通过观察、记忆、总结,在脑中形成了一个抽象世界的内部投影。

比如:

婴儿不需要有人告诉他重力是什么,摔几次东西就懂了

猫不需要语言指导,看几次就知道跳多高能上桌子

人类开车20小时就能掌握,靠的不是背规则,而是建立了对速度、距离、惯性的直觉模型

LLM缺的就是这个投影空间,它没有世界的内部表征。

这就是LeCun正在构建的新路径:Joint Embedding Predictive Architecture(JEPA),联合嵌入预测架构。

② JEPA:一种全新的学习范式

JEPA与LLM的核心差异体现在多个层面。

  • 在输入形式上,LLM只处理语言token,而JEPA可以处理视频、图像、传感器等多模态数据。
  • 在学习目标上,LLM是预测下一个词,JEPA则是预测抽象状态的变化。
  • 在学习方式上,LLM依靠离散序列建模,JEPA结合了表征学习和因果建模。
  • 最关键的是,LLM没有行动能力,而JEPA天然具备规划和执行接口。

LeCun用了一个形象比喻:用LLM去理解真实世界,就像用听说来教人开车。你可以背下所有交规,但永远学不会真正驾驶。因为语言描述不了摩擦力、惯性、视野盲区的感觉,而这些正是行动智能的核心。

③ 从模拟世界开始,训练下一代AI

LeCun正在AMI推动的,是一种类似动物学习的AI训练模式:首先在模拟环境中让AI自主互动,然后从互动中提取因果关系,形成持续记忆,最终具备规划行动的能力。

这种模式不再依赖更多token,而是依赖更好的世界模型。

他说:我们不需要能背百科全书的AI,我们需要能用眼睛和手理解世界的AI。

如果说 LLM 是语言的大师,世界模型就是物理世界的学徒。

Yann LeCun 选择押注后者。这不仅是技术路线的分叉,更是对 AGI 本质的重新定义。

第三节 | 不只 LeCun:另一个方向也在探索

在质疑 LLM 这条路的,不只 LeCun 一个人。Sutskever 也认为,缩放时代已经结束,下一代智能需要新的架构基础。

两位深度学习先驱达成了共识,但他们给出的答案完全不同。

① LeCun押注世界模型,Sutskever押注安全超智能

LeCun的方向很明确:让AI具备对物理世界的理解和行动能力。通过自监督学习、表征建模、因果预测,构建能够真正看世界、理解世界的系统。他判断10年内会出现具身AGI的原型。

Sutskever的关注点在另一边:当前AI系统的泛化能力远不如人类,在benchmark上表现出色,但在真实场景中容易陷入错误循环。这种脆弱性如果不解决,规模越大风险越高。他创立SSI公司,要在AI能力继续提升的同时,确保其安全可控。

一句话总结:LeCun 要教 AI 理解世界和行动,Sutskever 要让 AI 在变强的过程中可控。

② 两条路线背后的不同关切

这种分歧源于两人的关注焦点。

LeCun关心的是 AI 如何有效泛化、如何在现实世界中行动。他强调的是:我们缺的不是算力,也不是数据,而是架构。

Sutskever 关心的是 AI 的安全性和可控性。他认为在没有解决泛化脆弱性之前,单纯追求能力提升是危险的。

他们代表了后 LLM 时代的两个方向:架构创新派和安全优先派。

过去十年,AI 竞争的是模型规模和训练数据。但当两位先驱先后离开大厂时,他们告诉我们:规则变了。

下一阶段的比拼,是谁先发明新架构、谁的系统既强大又可控。

这是一个时代的落幕,另一个时代的起点。

第四节 | 一场转向,正在发生

当图灵奖得主公开质疑主流路线,当 OpenAI 启动硬件项目、Google 挖来波士顿动力CTO,当数十亿美元的投资开始流向具身智能,一个问题浮现出来:后LLM时代,到底会是什么样子?

① 工业界的悄然转向

虽然 LLM 仍在快速发展,但一些关键变化已经在发生。

OpenAI的硬件野心正在浮出水面。11月24日,公司确认首个AI硬件原型已完成,这是与苹果前首席设计师Jony Ive合作的成果。按计划,这款无屏幕AI设备将在2年内发布,彻底改变人与AI的交互方式。

Google的多路线策略同样值得关注。11月18日发布Gemini 3 Pro,11月21日又挖来波士顿动力前CTO Aaron Saunders,推动Gemini成为通用机器人控制平台。目标是让同一个模型适配任何形态的机器人,开箱即用。

李飞飞的World Labs在融资2.3亿美元后,11月12日发布首个商业产品Marble,一个生成式世界模型平台。

具身智能领域更热闹:Figure AI 估值390亿美元,Tesla Optimus计划 2026 年开始量产。

这些动作指向一个共识:下一代 AI 不会只存在于对话框里。

② 两条路线,都需要时间

无论是 LeCun 的世界模型,还是 Sutskever 的安全超智能,都不是短期内能看到成果的方向。

LeCun说需要几年到十年,Sutskever说需要5到20年。这意味着: 当前的 LLM 仍然是主流应用的基础。GPT、Claude、Gemini会继续迭代,继续服务数亿用户。

但长期的技术制高点,可能不在这条路上。谁先在新架构上取得突破,谁就掌握了下一个十年的话语权。

这是一场需要耐心的马拉松,而不是百米冲刺。

③ 对创业者和开发者意味着什么?

LeCun的转向传递了几个重要信号:

首先,不要迷信规模。更大的模型不等于更好的智能,架构创新的空间仍然巨大。

其次,垂直场景有机会。世界模型最先落地的可能不是通用 AGI,而是机器人、自动驾驶、工业控制这些需要物理交互的领域。

第三,开源仍然重要。LeCun一直是开源的坚定支持者,他的新公司AMI会继续这条路线,这意味着小团队也有机会参与到新范式的探索中。

最后,要做好长期准备。这不是一两年就能看到回报的方向,但可能是未来十年最重要的方向。

LeCun 说过:真正的智能不在语言表面,而在对世界的深层理解

这不是对 LLM 的否定,而是对 AI 未来的更大想象。大模型已经证明了规模的力量,但下一步的突破,可能来自完全不同的架构。

真正的AGI,不会困在对话框里,而会出现在能够理解世界、执行任务的系统中。

这条路上,探索才刚刚开始。

📮 原文链接

https://jannalevin.substack.com/p/do-llms-understand-ai-pioneer-yann

https://www.businessinsider.com/openai-cofounder-ilya-sutskever-scaling-ai-age-of-research-dwarkesh-2025-11

https://techcrunch.com/2025/01/23/metas-yann-lecun-predicts-a-new-ai-architectures-paradigm-within-5-years-and-decade-of-robotics/

https://www.abzglobal.net/web-development-blog/ilya-sutskever-yann-lecun-and-the-end-of-just-add-gpus

https://www.bloomberg.com/opinion/articles/2025-11-12/yann-lecun-meta-and-mark-zuckerberg-pick-groupthink-over-ai-godfather

本文来自微信公众号“AI 深度研究员”,作者:AI深度研究员,36氪经授权发布。

+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

迪士尼在中国,乃至全球的成功,本质上是“体验经济”的胜利。

54分钟前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业