李飞飞的答案:大模型之后,Agent 向何处去?
划重点:
1、李飞飞最新论文,为当下火热的 Agent 划定了边界、确立了范式。谷歌、OpenAI 和微软等巨头的最新布局,几乎都遵循了论文给出的能力栈。
2、论文提出了一套完整的认知闭环架构——从感知、认知、行动,到学习与记忆,构成动态迭代的智能体体系。这不仅是技术的整合,更是对未来 AGI 路径的系统性构想。
3、大模型是驱动 Agent 的核心引擎,但环境交互是解决幻觉和偏见的关键锚点。论文强调,LLM/VLM 提供认知能力,但必须通过真实或模拟环境的反馈来校准现实,减少幻觉,并引入伦理与安全机制。
4、应用潜力横跨游戏、机器人和医疗三大前沿领域——游戏中的沉浸式 NPC、机器人中的自主规划与物理操作、医疗中的智能问诊与健康管理,展现了 Agent 从理论走向实践的清晰路径。
2025年,被普遍认为是 Agent 的元年,与之相关的概念从年初至今热度持续走高,包括智能体、AI Agent、Agentic AI 等等。
而就在最近,一篇由李飞飞领衔的 Agent 重磅论文在业内引发了广泛讨论,热度居高不下。网友们如此评价:“几乎是跪着看完的”、“太清晰,硬控了我3个小时”。
这篇长达80页的综述名为《Agent AI: Surveying the Horizons of Multimodal Interaction》,由李飞飞等14位来自斯坦福大学和微软的专家联合撰写。
它之所以备受推崇,是因为这篇综述为 Agent 这一略显混沌的领域,建立了一个清晰的框架:从感知-决策-行动,到记忆、工具使用、环境交互与评测,试图把分散在对话模型、视觉-语言模型、强化学习、工具调用等技术线索,统一到一个多模态 Agent 的新视角里。
并且,虽然这篇论文最早发表于去年年底,但站在当下节点回顾今年 Agent 的发展,谷歌、OpenAI 和微软等主流玩家的核心打法,几乎都是按照论文给出的能力栈来推进的;这也反过来印证了论文对“从大模型到 Agent”这一演进路径的前瞻性判断。
也正如李飞飞在自传《我看见的世界》里强调的,“现在学生太过于追求热点,其实很多老论文是非常经典且具备借鉴意义”;即便这篇综述发表至今不过半年,但其意义之大、影响之深,仍值得每一位 AI 从业者深入品读。
接下来,我们就一起看看这篇纲领性巨作的核心价值。
01
Agent AI 的核心:一个全新的智能体认知架构
要理解这篇论文的精髓,首先必须把握其提出的全新 Agent AI 范式。这远非对现有技术栈的简单拼凑,更是一种对未来通用人工智能(AGI)发展路径的前瞻性思考。
论文中的架构图,便清晰地定义了这个范式的五个核心模块,它们共同构成了一个完整的、可交互的智能体认知闭环。
首先是环境与感知(Environment and Perception),这是智能体与世界交互的起点。
与传统模型被动接收结构化数据不同,Agent AI 主动从物理或虚拟世界中感知信息;这种感知是多模态的,涵盖视觉、听觉、文本、传感器数据等。
更重要的一点是,感知模块内嵌了任务规划与技能观察(Task-Planning and Skill Observation)的能力;这意味着 Agent 在感知环境时,并非茫然地接收一切信息,而是带着明确的目的去理解。
第二个核心模块是认知(Cognition)。
如果说感知是输入,那么认知就是处理中枢,是 Agent 的“大脑”。论文将认知定义为一个极其复杂的系统,包含思考、意识、感知、共情等高级智能活动。
这正是大语言模型(LLM)和视觉语言模型(VLM)发挥核心作用的场域。它们为 Agent 提供了强大的世界知识、逻辑推理和上下文理解能力。认知模块负责解释感知到的信息,进行多步推理,并制定出实现目标的策略。
接下来是行动(Action),它承接认知模块的决策,负责生成具体的操作指令。
这些指令可以是与物理世界交互的机器人控制命令(如移动、抓取),也可以是与虚拟世界交互的API调用、代码生成或自然语言回复。行动模块通过控制器(Controller)作用于环境,从而改变环境的状态。
第四个核心模块是学习(Learning)。
Agent AI 并非一个静态系统,其核心优势在于持续学习和自我进化的能力。论文强调了多种学习机制,包括预训练(Pretraining)、零样本/少样本学习(Zero-shot/Few-shot)、强化学习(RL)和模仿学习(IL)。
通过与环境的交互(即“Agent Interactive Closed-loop”),Agent 从成功和失败的经验中学习。环境的反馈(Feedback)会回流至学习和记忆模块,用于优化未来的决策。
最后,便是记忆(Memory)。
传统模型的“记忆”通常局限于短暂的上下文窗口,而 Agent AI 的记忆模块则是一个更持久、更结构化的系统。它存储着知识(Knowledge)、逻辑(Logic)、推理路径(Reasoning)和推断(Inference)的结果。
这使得 Agent 能够从过去的经验中提取知识,形成长期记忆,从而在面对新任务时,不必从零开始,而是可以举一反三。
这五个模块共同构成了一个动态的、持续迭代的闭环。Agent 通过感知环境,在认知核心的驱动下做出决策,通过行动改变环境,再从环境的反馈中学习和更新记忆,从而在每一次交互中,都比上一次更智能、更高效。
02
大模型如何驱动 Agent AI?
我们刚才解读的 Agent AI 新范式,可以说是这篇综述蓝图中的一个维度。
Agent AI 的宏大框架之所以在今天成为可能,其根本驱动力,源于大型基础模型(Foundation Models),特别是 LLM 和 VLM 的成熟。它们是 Agent 认知能力的基石,但也带来了新的挑战。
LLMs(如GPT系列)和VLMs(如CLIP、LLaVA)通过在海量数据上的预训练,内化了关于世界的大量常识知识和专业知识。这使得 Agent 在启动之初就具备了强大的零样本规划能力。
例如,当一个机器人 Agent 接收到“帮我热一下午餐”的指令时,它能利用 LLM 的知识,自动将这个模糊指令分解为一系列具体的子任务:“打开冰箱 -> 找到午餐盒 -> 把它放到微波炉里 -> 设置时间 -> 启动微波炉”。
这种能力极大地降低了为每个任务编写复杂规则的成本。
除此之外,论文敏锐地指出了大模型的一个核心问题——「幻觉」,即模型可能生成与事实不符或毫无根据的内容。
这在需要与物理世界精确交互的场景中是致命的。例如,一个机器人 Agent 如果“幻觉”出一个不存在的物体并试图抓取,可能会导致任务失败甚至设备损坏。
Agent AI 范式通过“环境交互”为解决幻觉问题提供了一个关键的「锚点」。因为 Agent 的决策和行动必须在真实或模拟的环境中得到验证。
如果模型生成的计划在环境中不可执行(例如,试图穿过一堵墙),环境会立即提供负反馈。这种持续的、基于物理规律的反馈,会倒逼模型将其内部的知识与外部的现实世界对齐,从而显著减少幻觉的发生。
基础模型同样会继承训练数据中的社会偏见。一个在充满偏见文本上训练的 Agent,其行为和语言也可能带有歧视性。
论文强调,在设计 Agent AI 时,必须将包容性作为一项核心原则。这包括使用更多元化的数据进行训练、建立偏见检测与纠正机制,以及在人机交互中设计符合道德和尊重他人的指导方针。
当 Agent(尤其是在医疗、家居等敏感领域)与用户进行深度交互时,会收集大量个人数据。如何确保这些数据的隐私和安全,是一项重大的伦理和技术挑战。
论文提出,需要为 Agent AI 建立明确的法规和监管框架,确保数据使用的透明度,并给予用户控制其数据的权利。例如,通过提示工程(Prompt Engineering)限制模型的行为范围,或者增加一个由人类监督的验证层,都是确保 Agent 在安全可控范围内运行的有效手段。
03
Agent AI 的应用潜力
论文不仅提出了理论框架,还深入探讨了 Agent AI 在三个前沿领域的巨大应用潜力,展示了其如何从理论走向现实。
首先就是游戏(Gaming)场景。
传统的游戏 NPC(非玩家角色)行为由固定的脚本驱动,模式单一、可预测,而 Agent AI 将彻底改变这一现状。
例如,基于 LLM 的 Agent 可以扮演 NPC,拥有自己的记忆、目标和情感。它们能与玩家进行真正有意义的对话,根据玩家的行为和游戏世界的变化动态调整自己的行为,甚至形成复杂的社会关系。斯坦福的“生成式智能体”小镇实验(Generative Agents)正是这一理念的早期探索。
并且,玩家可以用自然语言与游戏世界互动,比如告诉 NPC“我们去森林里寻找草药”,NPC 能够理解并协同行动。这为开放世界游戏带来了前所未有的沉浸感和自由度。
Agent 还可以作为创作者的“AI 副驾驶”,根据简单的指令或草图,自动生成游戏关卡、道具甚至完整的 3D 场景,极大地提高游戏开发效率。
其次是机器人(Robotics)场景。
机器人可以说是 Agent AI 最直接的物理化身(Embodiment),用户只需用日常语言下达指令(如“把桌子收拾干净”),机器人 Agent 就能自主规划并执行一系列复杂的物理操作。
论文展示了使用 GPT-4V 来理解人类视频演示,并将其转化为机器人可执行任务序列的实验,这让机器人编程变得如「教孩子做事」般直观。
在模拟环境中训练机器人成本低、效率高,但如何将学到的技能迁移到物理世界是一个核心挑战。Agent AI 通过领域随机化(Domain Randomization)等技术,在模拟训练中引入足够多的变化(如光照、材质、物理参数的变化),使学到的策略对真实世界的细微差异更具鲁棒性。
机器人 Agent 融合视觉、语言、触觉等多种信息来理解环境。例如,它不仅“看到”一个杯子,还能通过语言指令理解这个杯子是“易碎的”,从而在抓取时采用更轻柔的力度。
最后,在医疗健康(Healthcare)中,Agent AI 同样具备巨大的应用潜力。
Agent 可以作为医疗聊天机器人,初步问诊、收集病史,并基于医学知识库为医生提供诊断建议,特别是在医疗资源匮乏的地区,能极大地提升初级诊疗的覆盖率和效率。
医疗领域的知识更新极快,任何错误都可能危及生命。Agent AI 可以连接权威的、实时更新的医学数据库,在生成诊断建议时,同步进行事实核查和来源引用,这对于抑制模型幻觉、保证信息的准确性至关重要。
Agent 可以帮助处理和分流大量的患者信息,监控慢性病患者的生命体征数据,并及时向医生发出预警,实现更高效的个性化健康管理。
结语
尽管前景广阔,但这篇综述也清醒地认识到,Agent AI 仍处于早期阶段,面临着跨越模态、领域和现实的多重鸿沟。
例如,如何让 Agent 真正实现视觉、语言、听觉、动作等模态的深度融合,而不只是浅层拼接,是未来的核心研究方向。
以及如何训练一个能在游戏、机器人和医疗等截然不同领域都能高效工作的“通用 Agent”,而不是为每个领域定制一个模型,是通往 AGI 的关键一步。
并且在评测与基准方面,如何科学地评测一个 Agent 的智能水平也是关键。为此,论文团队提出了新的评测基准,如用于多智能体协作的“CuisineWorld”和用于视频理解的“VideoAnalytica”。建立标准化的评测体系,对于指引领域发展、衡量技术进步至关重要。
回归原文来看,李飞飞等人的这篇《Agent AI》综述,远不止是对现有研究的简单梳理。它提出了一个统一、完整的 Agent AI 认知框架,阐述了大型基础模型在其中扮演的核心角色,并且系统性地剖析了其在关键应用领域的机遇与挑战。为当前略显喧嚣和碎片化的 Agent 研究领域,提供了一张不可或缺的“地图”。
最后,大家可以一键传送论文原文:
https://arxiv.org/abs/2401.03568
本文来自微信公众号“划重点KeyPoints”,作者:林易,36氪经授权发布。