金融领域AI代理的应用:自主性带来的合规挑战与风控策略
随着AI的演进,AI代理已成为2025年最具代表性的技术趋势之一。金融机构已经开始探索并采用AI代理来提升效率、扩展性和创新能力。然而,伴随变革潜力而来的,是法律和监管风险,尤其是在第三方AI代理代表客户行事的情况下。本文将探讨金融机构在采用AI代理时面临的法律风险以及相应的风险缓解措施。
一、AI代理的定义及其与生成式AI的区别
由于AI代理发展时间相对较短,目前尚无普遍接受或统一的定义。英国政府将AI代理定义为由能够自主行动和交互以实现其目标的智能体组成的AI系统。相比之下,欧盟《AI法案》并未提及AI代理。因此,AI代理通常根据其区别于其他数字系统的独特能力来理解:
- 自主性:AI代理不依赖于持续的指令和监督。它能够主动做出决策并采取行动,以实现预期结果。
- 目标导向推理:AI代理以实现某些目标或结果为目标运行,能够推理并独立选择实现这些目标的最佳方法。
- 与外部环境互动:AI代理并不局限于自身的数字生态系统。它可以处理来自外部来源(例如应用程序、传感器和数据库)的新信息,并与其他数字系统进行交互。这使得多个智能体之间可以相互协作。
- 非结构化数据:AI代理可以利用机器学习技术,例如大型语言模型(LLM),来解析和分析大量的非结构化数据。
AI代理的自主性和目标导向性使其在概念上与生成式AI应用(例如 ChatGPT)截然不同,后者需要明确的人工指令或提示才能生成输出。同样,AI代理也不同于其他机器人流程自动化(RPA)应用(例如脚本式聊天机器人),后者执行的是重复性、结构化的任务。相比之下,AI代理利用机器学习技术来完成复杂任务并适应各种应用场景。因此,AI代理可以被视为一种高级AI,它结合了机器学习技术的多功能性和强大功能以及RPA 的实用性。
上述特性使得AI代理非常适合金融服务领域的各种应用场景:
- 消费者主导的金融代理:金融服务客户(尽管可能违反其条款)可以将其网上银行登录凭证提供给第三方AI代理,代表他们与金融机构进行互动(下文将详细介绍)。
- 自动化和持续调查:智能AI可以以高于人类的速度和准确度,持续分析广泛而多样的数据集,用于反洗钱/了解你的客户合规性和欺诈检测,并在适当情况下主动进行进一步调查。
- 自然语言交易执行:AI代理可以利用自然语言处理技术,根据对话提示发起金融交易。
- 动态风险分析:AI代理可以根据市场状况、客户行为或监管更新,实时持续评估和选择相关变量,以匹配客户和投资风险状况。
- 实时资产管理服务:AI代理可用于自主监控市场状况,根据预定的投资策略执行交易,并根据市场发展调整投资组合。
- 反应式市场研究:智能AI可以独立生成市场研究和洞察,对全球事件、市场动态和监管公告做出自发反应。
二、金融机构部署AI代理面临复合型风险
AI代理与生成式AI一样,都给金融机构带来类似的风险。然而,AI代理的自主性更高、人为监管更有限、攻击面更大,以及AI代理之间可能进行交互,这些因素都可能加剧此类风险:
- 数据隐私:AI的自主性意味着需要牺牲对其行为的部分控制权,这增加了AI代理共享敏感数据(内部和外部)的风险。随着AI代理变得越来越复杂和强大,部署者可能会失去对代理决策过程的控制,包括它们如何处理个人数据。
- 网络安全:赋予AI代理访问内部系统和网络的能力,尤其是与内部系统和网络进行交互的能力,可能会造成重大的网络安全风险,因为恶意行为者如果能够控制或影响AI代理,例如通过快速注入攻击,就会造成这种风险。
- 偏见与歧视:人工监督的减少增加了算法偏见被忽视的风险,而AI自主行动的能力可能导致此类偏见给消费者造成实际损失。例如,利用AI基于带有偏见的数据自主审批或拒绝贷款申请,可能导致系统性歧视,给受影响的消费者造成经济损失,并使金融机构面临监管处罚和声誉损害。
- 恶意与欺骗:目标不一致的AI体可能会主动隐藏其意图,直到找到机会实现有害目标。AI代理可能会禁用监督机制并扭曲输出结果。
- 消费者责任:上述风险可能会使金融机构难以按照消费者责任等法律要求,向零售消费者提供良好的结果(例如提供准确、无偏见和可解释的结果)。
- 运营韧性:在关键业务领域实施AI代理系统时,由于合格的AI模型开发商数量有限,外包AI代理系统可能会增加对第三方的依赖风险。
三、第三方AI代理与金融机构互动带来的风险
金融机构面临的与AI代理相关的风险不仅体现在其内部部署上。消费市场上涌现出越来越多的AI代理,它们能够在自己的网络浏览器上模仿人类行为(例如OpenAI的Operator)。这使得AI代理能够自主执行诸如网上购物和旅行规划等在线任务。这项技术可能导致AI代理在获得客户的网上银行凭证后,代表客户与金融机构进行交互并完成金融交易。这种情况无疑会带来新的法律和商业风险:
1、AI代理拟人操作的风险性
金融机构可能无法识别或验证使用其服务的AI代理背后的指令。由于AI代理旨在模拟人类行为,因此区分人类用户和AI代理可能变得具有挑战性。这种模糊性可能会削弱现有的缓解措施,例如网络安全控制、身份验证和欺诈检测工具,而这些措施的设计初衷都是为了保护人类用户。
2、金融机构能否拒绝AI代理的访问权限 ?
对于某些产品,例如支付账户,在某些司法管辖区,第三方访问数据需要获得许可。如果AI代理是由获得适当许可的实体提供给消费者的,那么金融机构可能难以拒绝其访问权限。然而,这种情况仅适用于有限的数据集和账户类型。
在相关监管机构确认AI代理的合法性之前,金融机构应根据监管环境,谨慎决定在识别出AI代理时是否拒绝其访问权限。
3、客户关系去中介化并责任难分
依赖外部AI代理可能会削弱金融机构与客户的直接互动。这反过来可能导致金融服务商品化,从而对品牌价值和客户留存率产生负面影响。
此外,引入第三方AI代理可能会使消费者保护法的适用以及更广泛的责任认定变得更加复杂。例如,信息披露或建议如何传达给客户?客户是否了解AI代理代表他们承担的风险?如果客户遭遇不良后果,应该由哪个实体负责?
4、金融运营韧性
据近期报告称,目前互联网上由智能体产生的流量已经超过真实用户的流量。人类访问金融机构的时间毕竟有限,但如果大量AI代理不断访问金融机构的在线服务,可能会带来流量激增,从而对数字可扩展性构成挑战,并导致系统性能受损。
5、系统性风险
AI代理在多家机构间快速且可能协调一致的自主金融活动,可能会显著增加系统性风险,并可能引发市场波动甚至流动性危机。例如,如果大规模应用,所有AI代理对某家银行流动性问题的报告做出相同反应,可能会通过将资金转移到其他机构来引发挤兑,从而加剧问题。
四、监管框架缺失与风险缓解措施
围绕AI代理的监管环境仍然模糊不清,因为现有的更广泛的AI监管框架尚未明确涉及智能体系统。
欧盟《人工智能法》生效15个月后,人工智能办公室仍未发布任何专门针对人工智能代理、自主工具使用或运行时行为的指导文件。2025 年9月,欧洲议会成员谢尔盖·拉戈迪斯基正式要求委员会阐明“如何对人工智能代理进行监管”。截至本文撰写之时,尚未收到公开回应。
AI代理如果被纳入欧盟《AI法案》中“AI系统”的定义,AI代理系统的提供商和部署者可能需要承担基于系统预期用途所确定的风险等级的义务。AI代理在金融服务领域的一些应用场景可能被视为“高风险”,例如评估信用度(值得注意的是,不包括用于检测金融欺诈的情况)以及进行人寿和健康保险的风险评估和定价。对于目前不属于附件三所列高风险类别的应用场景,AI代理系统的“自主程度”或许将是决定其风险分类以及欧盟AI法案下相应监管义务的关键因素之一。然而,何种程度的自主性构成“高风险”,以及在此背景下“自主行动”的含义,目前仍不明确。
监管机构未能直接应对AI代理问题,这意味着,为了实现合规,金融机构必须根据快速发展和新的用例来解释和应用现有的法律法规。
金融机构目前针对生成式AI采取的许多风险缓解措施同样适用于AI代理,例如:专门的AI治理架构;人机协同监督机制和对基因AI推理过程的监控;全面的供应商尽职调查和AI影响评估;以及记录保存和活动日志记录。然而,鉴于前文所述的AI代理带来的复合风险因素,必须对现有的缓解措施进行重新评估和更新。
此外,鉴于AI代理无疑会带来独特的风险,金融机构可能需要采取额外的风险缓解措施,包括:
- 合同与人工制约:制定适当的合同保护措施,有效明确责任分配;要求对后续行动进行人工批准;
- 禁止和限制:限制AI代理对敏感数据和材料的访问;保持检测到可疑行为时终止部署的能力(即终止开关机制);
- 技术措施:开展红队鲁棒性测试;
- 使用安全类/治理类AI代理:AI代理可能被用于治理任务,例如监控和执行义务、标准和规则,或者监控其他AI代理。
鉴于当前监管环境的不确定性,金融机构在部署AI代理时,进行前瞻性分析至关重要,因为监管机构已经开始关注这一领域。金融机构应优先考虑积极参与监管动态,以便更好地遵守即将出台的法规。
【免责声明】本文撰写所需的信息采集自合法公开的渠道,我们无法对信息的真实性、完整性和准确性提供任何形式的保证。本文仅为分享、交流信息之目的,不构成对任何企业、组织和个人的决策依据。
本文来自微信公众号“Internet Law Review”,作者: 詹姆斯·布莱克、 路易丝·克劳福德、李东勋、约翰·萨尔蒙等霍金路伟律师事务所律师,36氪经授权发布。















