弗里斯顿:什么才是真正的智能?
Claude Code 已经这么能干了,为什么还不算真正智能?沿着弗里斯顿的自由能原理和主动推理,我们重新理解什么是预测、什么是代理,以及为什么今天的大模型仍未抵达真正智能。
重新理解什么是智能
阳志平说,如果要评选 21 世纪的「牛顿」或「达尔文」,弗里斯顿「无疑是最佳人选」;他也把自由能原理称为「认知科学、神经科学与心理科学的大一统理论」,并「视为 21 世纪的进化论」。每当一个学科开始重新定义自己的基本问题时,新的理论红利往往才刚刚开始。
过去几年,大语言模型展示了惊人的工程能力。它们能生成文本、代码、图像,也能在许多任务上表现出超出预期的泛化能力。然而,真正尖锐的问题并没有因此消失,反而被推到了台前:预测一个结果,是否等于理解其原因;一个能够调用工具、完成任务的系统,是否已经具备真正的代理性;如果答案是否定的,那么今天整个行业最热闹的方向,是否仍只是智能史中的一个阶段,而不是终局。
当我们谈论「人工智能」时,我们究竟在谈什么。
从「预测机器」到「主动推理」
主动推理是一个理论框架,认为生物体包括人类,会通过「预测」和「行动」来理解和适应世界。简单来说,我们的大脑会不断预测外界的变化,并通过行动验证或修正这些预测,从而保持生存与稳定。
这段话之所以重要,在于它把感知与行动放回了同一个框架。按弗里斯顿曾经在访谈中的低层次解释,大脑看起来像一台预测机器:它不断尝试猜测感觉的原因,并将预测与真实感觉相比较;这种错配可以写成预测误差,也可以放进自由能的语言中理解。按高层次解释,自由能原理讨论的是一个自组织系统如何借助边界或马尔可夫毯,把「自身」与「外部」区分开来,并闭合感知与行动的循环。
主动推理有两个变量。变分自由能对应当下的模型更新,是「惊异」的近似上界;预期自由能则面向未来,指导系统采取能够减少风险与含混的行动。换句话说,理解世界并不是单纯等待信息到来,而是在行动中不断校正自己的生成模型。
真正的代理,必须把未来纳入模型
如果说预测编码让我们看到「大脑如何解释感觉」,那么主动推理真正推进的一步,是把行动后果也纳入生成模型。弗里斯顿反复强调,一个真正的代理,不仅有关于世界的模型,还要有关于自身行动后果的模型;这个模型甚至包含若干反事实未来。正因为如此,「规划作为推理」才成立,意图才不是附会,而是系统在多个可能未来之间做出的选择。
弗里斯顿对代理性的定义很严格,真正代理性的几个关键特征包括:它能够改变世界;它对自己的行动后果有某种生成模型或信念结构;它能在有限数量的未来之间进行选择;它的目标函数中包含信息增益,因而会表现出好奇、探索和信息寻求。若一个系统根本无法进入行动-感知循环,那么按这套标准,它还不能算真正的代理。
这一点也解释了为什么自由能原理常被理解成不只是一个认知理论,而是一套关于智能边界的判准。它首先回答的不是「如何做一个更大的模型」,而是「什么样的系统才配得上被称为智能代理」。如果说过去十多年 AI 的主导问题是「如何把预测做得更强」,那么弗里斯顿真正推进的问题则是:仅仅更强,是否已经足够。
为什么今天的大语言模型仍不等于真正代理
值得注意的是,弗里斯顿并没有否认生成式 AI 的成就。他在一些访谈中,明确把生成式 AI 称为「杰出的工程壮举」。但他的区分同样明确:当前形式的生成式 AI,本质上仍然是在做内容到内容的映射;在 LLM 的场景下,就是从过去文本序列到下一个 token 的映射。问题不在于这种映射无效,而在于它没有把原因、结果与行动后果显式写进生成模型的规范之中。
由此出发,他的批评并不是流行语意义上的「幻觉不可治」,而是更严格的结构判断:当前 LLM 没有意图,没有计划,也没有在行动中寻求信息的能力。它可以输出结果,但并不因此自动获得代理性。弗里斯顿甚至给出一个近乎极简的诊断标准:如果一台计算机什么都不能做,不能改变世界,它就不能是代理。
Dan Mapes 把 LLM 描述为擅长内容生成的系统,但在需要实时反馈、可测量后果和任务关键型运行的场景里,仍然往往需要人工编辑和把关。两者合在一起,得到的是一个更克制也更稳妥的结论:当前 LLM 很有用,但在主动推理的意义上,它们仍不等于真正代理。
如果把今天流行的 Claude Code 这类 agentic coding system 放进这套框架,判断会更微妙。以 2026 年 3 月 29 日可见的 Anthropic 官方文档为准,Claude Code 已被直接定义为一种「agentic coding tool」:它可以读取代码库、编辑文件、运行命令、调用外部工具,也支持多代理协作与定时任务;与此同时,它又被明确放在权限系统之内,行动范围受「allow」「ask」「deny」规则与不同 permission mode 约束。
按本文前面的标准,这意味着它已经明显跨出「只做下一个 token 预测」的那一步,更接近一种能够通过工具改变环境、搜集信息并在任务中选择行动的系统代理;但它仍更像「受托执行的任务代理」,而不是拥有自身意向的主体。
它的目标主要来自用户指令,行动边界由权限体系外部设定,关于行动后果的模型也主要服务于完成任务,而不是形成自主的先验偏好。换言之,Claude Code 这类系统确实让「大模型是否开始具备代理性」这个问题变得更现实了,但若按弗里斯顿对意向性与真正代理的严格定义,它们大概率还不能被直接算作已经拥有完整意向性的人工智能。
为什么这条路线仍值得重视
如果批评停在这里,弗里斯顿的框架就只是一套否定性判断。我们是否可以给出另一条路线的轮廓?那不是继续构建更大的中心模型,而是让不同领域的人构建经过策划的小模型,例如心脏病学模型、地方农业模型,再通过协议将这些模型连接起来。这里的重点不是通用抓取,而是领域知识、本地化建模,以及与真实环境持续耦合。
弗里斯顿把这种方向解释成分布式信念更新:许多本地智能体只与邻居交换信息,但整体上形成联合推理或分布式智能。进一步说,这可以用图形模型、因子图与本地消息传递来表述;在这种表述下,局部信念更新可以理解为最小化变分自由能。这并不等于说问题已经解决,但它至少说明,自由能原理不是纯粹的隐喻,而是能落到具体架构语言上的。
同样重要的是,这条路线未必要求与 LLM 完全对立。主动推理系统是更适合规划、决策和实时操作的推理引擎。LLM 完全可以承担另一类工作,即把机器内部的信念、理由和判断翻译成人可读的叙述。从这个意义上说,更稳妥的判断不是「替代」,而是「重新分工」乃至「混合架构」。
小结
弗里斯顿把自由能原理比作自然选择:它解释范围很广,但本身并不直接告诉你如何造出眼睛、腿,或某个具体的系统;真正的重活,仍然是写出生成模型的结构和更新过程。自由能原理之所以吸引人,不只是因为它宏大,而是因为它要求进入具体建模。
自由能原理不是给出了现成的工业配方,而是重新定义了问题本身:什么才算理解,什么才算代理,什么样的系统才算在行动中形成并修正自己的世界模型。今天的 LLM 是否足够强,当然仍然是一个工程问题;但「强」究竟意味着什么,则已经是一个理论问题。弗里斯顿真正带来的,或许正是这一层重新发问的能力。
大模型时代最容易让人产生的一种错觉,是把能力的增长误认为问题已经解决。然而,正因为我们第一次造出了如此强大的预测机器,「预测不等于理解」才会以前所未有的方式暴露出来。若这一判断成立,那么今天真正值得警惕的,也许不是模型还不够大,而是我们可能把问题问得还不够深。
本文来自微信公众号“开智学堂”(ID:openmindclub),作者:开智学堂,36氪经授权发布。















