智能体(AI Agent)治理新思路:以“人”治“机”,构建专用数据通路
目前我们在AI代理治理领域面临着实际上包含两个相对独立但又相互关联的问题:一是AI Agent本身的治理问题,二是无障碍权限这一特殊权限的管理问题。将这两个问题混在一起讨论,往往会导致问题复杂化,难以得出清晰结论。但如果我们能够厘清AI Agent本身的治理问题,那么AI Agent使用“无障碍权限”的问题也会迎刃而解。
一、AI代理技术带来的根本性变革
在技术领域讨论AI与Agent结合时,更常使用"智能体"这个概念。这个术语相比"代理"具有更弱的法律含义,能更准确反映其技术本质。
从根本来说,智能体的出现,改变了构建信息系统的底层逻辑。
传统的信息系统构建方式是,先梳理业务逻辑和业务流程,然后通过信息系统实现。这种方式以功能和流程作为组织信息系统的关键要素,但在面对开放环境、不确定性挑战时,系统之间的功能边界往往还未明确,清晰合理的业务流程还未形成,导致这种传统的信息系统构建方式显得力不从心。
人类本身具有强大的应对不确定外部环境的能力,以智能手机的UI交互为例,用户能够轻松理解第一次使用的APP界面含义并完成交互。面对更为复杂的任务,如城市治理、军事行动等,人类通常通过组建团队、定义角色、明确职能,让每个人按照其职能的逻辑开展工作并不断优化流程。也就是说,人类是以组织为中心解决复杂问题的,组织的构建先于功能的实现和流程的设计。这种模式有利于发挥个体在不确定环境下的能动性,对开放多变环境下的复杂任务执行具有更强的适应性。
从这个角度来说,AI智能体像人类一样具有灵活应对环境并执行相关操作的特性,使其越来越像具有特定角色和职能的"人",也使得人机协作变得更加自然。这意味着传统的信息系统构建方式正在发生根本性变革:人类对信息系统的干预方式不同于传统逻辑,而是像与员工交互一样,只需要给出指令,接收反馈并进行调整,信息系统与人的交互方式就如同人与人之间的交互一样进行下去。
如果我们承认智能体在技术系统中扮演着类似“人的角色”,发挥着类似“人的作用”,那么对其管理就应该采用类似“人的管理方式”。
但目前的问题是,我们并没有将智能体视为“独立的行为主体”进行管理,而是仍然从“行为规则”的角度进行约束,这种治理逻辑可能已经不适应新型AI代理的发展需求。
二、治理框架的重构:从身份认定到数据通路
1、独立身份认定的重要性
目前互联网上由智能体产生的流量已经接近甚至超过了真实用户的流量。网络安全领导者泰雷兹(Thales)发布的《2024恶意机器人报告》(2024 Imperva Bad Bot Report)指出, 2023年近一半(49.6%)的网络流量来自智能机器。这说明,存在大量"幽灵"般的智能体在不断与其他实体交互并产生数据,具有特定角色和职能的智能体已经成为技术和人类构成的系统中的重要组成部分。
这一现状表明,智能体已从工具性存在演变为具有系统影响力的主动参与者。这些“智能体参与者”如同秘书一样,以人类名义行事,但其行为背后并不完全受人类意图控制。因此我们真正需要治理的不是具体行为,而是这些新的行为主体。
所以,治理智能体的第一步是要建立独立的身份认定体系。这就像管理员工一样,我们需要确认为其建立独立的身份标识。当前的智能体使用人类的数据通路进行交互,通过用户界面获取数据并进行操作。这种方式实质上造成了两类用户——机器用户和自然人用户共享相同的数据通路,这显然存在问题。
2、专用数据通路的建设
技术领域出现的MCP协议代表了一个重要方向。当网站主动为智能体提供专用接口时,数据交互效率将大大提高,网站负担也会减轻。这种通过数据接口完成的交互方式,意味着我们将真正区分两类用户:为自然人提供UI界面,为智能体提供MCP接口。
同样,在单机环境下,通过无障碍权限为智能体提供数据通路的做法存在安全隐患。更好的解决方案是为这类单机智能体建立独立的数据通路,不一定要通过用户界面完成。通过建立专门的服务体系,我们可以加入更有效的管控措施。
三、信任机制构建与市场化治理路径
1、信任是问题和答案的核心
所有关于智能体技术和法律风险讨论的背后,本质上都源于“信任”问题。
传统模式下系统完全听从用户指挥,而现在智能体具有自己的理解和行为逻辑,这就产生了新的信任关系构建需求,需要重建用户与技术系统之间的信任关系。 从技术角度,我们强调"可信赖性",即技术系统的行为要符合各方预期。这种可信赖性的建立就需要重新定义“预期体系”。
通过对智能体监管中“用户授权”的讨论,我们可以感知到,智能体已经带来了更复杂的场景和条件,传统的授权机制作为一种对用户预期的静态表述,可能已不足以应对这些复杂情况。同时,用户授权后,并没有足够的技术手段确保智能体“如约执行”,这也削弱了用户与智能体之间的信任关系。
2、市场化治理的优势
当智能体成为可识别的行为主体,其行为能够与自然人区分开来时,可以通过市场化手段建立治理机制,不一定需要采取强监管的行为规制方式。随着使用规模的扩大,智能体能够形成自己的声誉体系,好的坏的都可以通过用户选择来筛选。
3、渐进式、动态的治理策略
从现实来说,我们现阶段很难对所有智能体制定全面、清晰的规则。因此从纯技术角度看,当前最重要的建立一个能够适应技术变革的治理框架。这个框架的许多细节可以逐步完善,但核心是要合理配置各方权责,营造共赢关系。
在技术层面,需要通过动态的数字合约配合使用控制建立技术信任;在制度层面,需要建立身份确认、协议管理等机制;在治理层面,要完善争议解决和证据保全制度。这些措施要形成有机整体,共同保障治理效果。
四、总结与反思
当前我们面临的是一个快速变化的技术环境,过于细致的规则制定既不可能也不必要。更可行的思路是建立一个基础框架,在这个框架内让各方形成良性互动,推动技术持续健康发展。
重点是要安排好各相关方的角色定位,充分发挥各方的主观能动性,让市场机制在治理中发挥更大作用。这种治理思路既能够保持技术的创新活力,又能够通过制度设计防范潜在风险,可能是更适合当前技术发展阶段的治理路径。关键是要在保障安全的前提下,为技术创新留出足够空间。
【本文基于王钺在“侵入式AI的风险与治理”研讨会上的发言内容整理。】
【免责声明】本文撰写所需的信息采集自合法公开的渠道,我们无法对信息的真实性、完整性和准确性提供任何形式的保证。本文仅为分享、交流信息之目的,不构成对任何企业、组织和个人的决策依据。
本文来自微信公众号“Internet Law Review”,作者:王钺,36氪经授权发布。















