别再迷恋“AI超级大脑”了,剑桥教授发文:机器人集体智能才是未来

学术头条·2025年09月25日 15:22
真正的机器智能,要 1+1>2。

你有没有想过,为什么我们还造不出真正适应现实世界的机器人?

明明人工智能(AI)模型规模越来越大,单体能力越来越强,可具身机器人在执行集体任务时,要么因反应太慢跟不上实时任务,要么因无法适应新场景而经常“掉链子”。

今天,英国剑桥大学计算机科学与技术系集体智能与机器人学教授 Amanda Prorok在科学期刊Science Robotics上发表观点文章,揭示了机器人「集体智能失灵」的原因

专注于独立运作的个体机器人的经典机器人自主性方法,并不适合那些将互动与协作视为必不可少的复杂现实世界环境。

简单来说,机器人智能的未来,从来不是“一个超级大脑打天下”,而是一群专业伙伴共同协作

Prorok 教授甚至认为,这种方法“从根本上就是错误的”。因为 scaling laws 表明,实现更复杂的行为需要不成比例的高投入,这使得这种实现机器人自主性的方法既不具可扩展性,也不可持续。

她建议,研究人员需要进行范式转变:将机器人集群设计为由多样化、专业化的 Agent 组成,使其作为更大系统的一部分发挥作用。

文章链接:www.science.org/doi/10.1126/scirobotics.adv4049

单一模型为何走不远?

目前最先进的机器人,大多依赖一个集中控制的庞大模型,试图一个模型完成导航、感知、交互等所有任务。

Prorok 教授认为,当前机器人追求自主性的做法存在误区。在机器人运行的整个生命周期中,它们必然要与其他 Agent 产生互动。但时至今日 Agent 之间的集体行为仍常被视为偶然现象,而非智能本质的组成部分。

无论是实体,还是虚拟 AI 系统,在设计之初就未考虑与机器或人类等其他 Agent 的交互需求。现有认知框架和基础 AI 教材仍将经典 AI 问题定义为孤立机器在非社交环境中的对抗。

同样,传统机器人自主性定义将独立自主的机器人定位为无需依赖任何外部因素即可自主应对环境的 Agent。

深度学习的 scaling laws 显示,要让机器人行为更复杂,模型规模和数据需求会呈指数级增长。当前,典型的 AI 产品采用集中式控制的单体架构,参数规模可达数百万甚至数十亿级。这意味着,要想让机器人再聪明一点,就要投入成倍的能源、时间和资金

更糟的是,这些大模型根本不实用:仅计算模型本身就需要数百 GB 内存,前向传播延迟让它们目前只能在离线状态下以较低速度运行,无法应用于高频控制场景,导致许多机器人应用场景难以实现。

下图展示了 4 个大模型在两种平台上的运行性能。数据显示,即便在性能更强的开发板上运行,也只有最小的模型能勉强达到“实时响应”的标准。

图|DINOv2模型在两种平台上的推理频率对比(a);对模型数据进行线性拟合显示(b)。

集体智能:1+1 要大于 2

Prorok 教授表示,现如今机器人研究领域正顺应将现成的集中式、单体化 AI 模型整合到自主系统架构中的趋势,这种决策设计正推动着通用型机器人的开发热潮。但智能并非单一的超级有机体,也不是所有设想任务都能由单个超级机器人完成

既然单一模型走不通,那让机器人像人类一样合作行不行?

答案是肯定的,与其追求由同一套通用大脑操控的独立机器人,科学家认为更应聚焦于设计由心智与躯体相互依存、形态多样且功能专业化的机器人集群,使其作为更大系统的一部分协同运作。

因此,集体机器人智能需要在硬件和软件设计上采取更模块化、组合式的设计方法。在这种架构下,多个模型不仅能相互学习,还能在不同实体机器人内部及跨实体间进行互动。

首先,集体智能的核心是专业化分工

不是让一个模型包揽一切,而是让每个机器人专注一项技能,再通过协作组合出复杂能力。

采用专业模型的 Agent 组成的群体,能够通过组合技能实现超线性提升,并以新颖且未经训练的方式整合个体能力。

这种模块化、组合式的自主方法,使 Agent 和机器人能够有效模拟庞大神经网络的行为模式,并在运行时动态重组以适应任务需求,实现“超线性增益”,随着技能组合数量增加,性能增长速度远超单个模型的提升。

图|机器人模型集群的 scaling law 示意图

其次,有些技能只能通过集体中的社交学习来习得

基于从零开始训练互动的理念,协作学习过程还能让单个专家模型更深入地理解自身能力与局限。这种认知自然会促使其明白在什么时机、何种情境下需要与其他模型合作,才能克服短板、达成更复杂的任务目标。

诸如心智理论元认知都并非与生俱来,而是在集体环境中习得的。这些技能对于涉及与人类或其他 Agent 及机器人互动的任务至关重要。

此外,集体学习能够提升单个 Agent 的性能表现,即使面对单一任务时,也能通过加速学习进程和优化长期效果来实现。

这种优势源于一种经验共享机制:在机器人领域,由于执行的是物理操作而非虚拟模拟,收集实验数据往往成本高昂、风险较高甚至存在安全隐患。借助他人经验可以催化学习过程,更重要的是能够避免重复危险行为。共享知识还能通过分摊和共享特定技能来缓解灾难性遗忘问题。

集体智能并非简单“凑数”

当然,让机器人“组队协作”,并不是把几个机器人放在一起那么简单。目前这一领域还有不少亟待解决的挑战,需要研究人员继续“闯关”。

第一关是“如何协作”的技术关

当前机器人间的显式局部交互通常依赖窄带通信网络。然而,如何设计帮助机器人确定“交流内容、时机及对象”的方法仍是一个未解难题。

现有的机器人间的通信大多依赖窄带网络,且很难设计出“该说什么、什么时候说”的策略。

虽然有研究者尝试用可微分通信信道让机器人自动生成交互信号,或用图神经网络规划协作路径,但这些技术还在起步阶段,要理解这些新兴方法在构建鲁棒且适应性强的机器人集群时的权衡与局限性,仍需更多研究。

第二关是“怎么落地”的设计关

尽管该领域进展迅速,但“机器人混合”范式的概念仍然不明确,要设计能够应对不同且可能互不重叠动作领域的模型颇具挑战。

在“混合机器人”方法中,这一难题可转化为连接各类模型的算法或机制。初步探索可借鉴集成模型、混合专家、超网络及层次学习等研究成果,但最终目标是根据底层任务需求组装机器人集群。

在这些方面,当前仍存在诸多技术空白,特别是在实现专业机器人技能与行为的实时组合方面。

第三关是“怎么评价”的标准关

当前对于性能的定义仍停留在基础层面,往往被简化为学习损失的替代指标或单个机器人模型的优化目标,却忽视了包含团队层面的满意度和集体韧性等更复杂的综合指标。

这种评估体系既不考虑任务多样性,也不考量团队适应不同协作场景、物体分布和类型的综合能力。结果就导致系统在受控的单机测试中表现优异,但在需要灵活团队协作或精准角色分配的环境中却力不从心。

因此,Prorok 教授建议,我们需要制定更全面的基准测试标准,从而建立超越单纯个体成功率的综合性评估体系。

如今,虽然运用 AI 技术至关重要,但真正的突破仍需我们抵制那些为追求短期利益而回避深层基础性挑战的诱惑

在 Prorok 教授看来,未来的机器人,不会是单一的庞大模型,而是默契的协作团队。当机器人学会“团结”,它们才真正具备了走进现实世界的能力

本文来自微信公众号 “学术头条”(ID:SciTouTiao),作者:学术头条,36氪经授权发布。

+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

资本不会对优质企业视而不见。

1小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业