龙虾热的冷思考:AI“数字劳工”狂潮下的生存法则
3月7日的全国两会上,中国工程院院士高文的一句话道出了当下大众的集体焦虑:“现在大家急得不得了,生怕没有养上‘龙虾’。”他口中的“龙虾”,是今年初爆红的开源AI智能体OpenClaw。短短数周内,它的GitHub星标数突破24万,深圳腾讯大厦楼下排起了“免费装虾”的千人长队,龙岗区率先推出“龙虾十条”产业扶持政策,“上门安装龙虾”在二手平台上催生了500元一单的新生意。
与此同时,英伟达在GTC 2026前夕宣布推出面向企业的开源智能体平台NemoClaw。在3月6日的一场活动上,黄仁勋就曾将开源软件OpenClaw评价为“当代最重磅的软件发布”。从政策端到产业端,从个人用户到跨国巨头,一场围绕AI自主执行体的全民狂欢正在上演。然而,工信部已就其安全风险发出预警,全球超13.5万个实例被发现暴露在公网之上。当AI从“聊天助手”长出了能操控电脑的“双手”,管理者需要的不是追赶热潮,而是一套冷静的判断框架。本文提供的,正是这样一份“龙虾使用说明书”。
数字劳动力的觉醒与“OpenClaw现象”
2026年第一季度,人工智能领域经历了一次从“玩具”到“工具”,再到“数字员工”的跃迁,渗透速度明显加快。最显著的标志,是开源智能体框架OpenClaw的爆发式普及。其核心能力在于:AI无需人类干预,即可自主执行跨平台的复杂操作任务——从检索信息、整理文档,到填写表单、发送邮件、执行代码,用户只需“发布任务”,其余步骤皆由系统自动完成。
这一技术特性迅速引发了政府与市场的双重响应。部分机构开始鼓励公务人员和企业员工尝试使用此类工具,将其视为提升行政效能的重要手段。与此同时,腾讯、阿里、百度等国内互联网大厂纷纷跟进,或推出配套服务,或为用户免费提供安装支持和一键云端部署,试图在新一轮人工智能普惠化进程中抢占入口,进一步引爆了这场全民AI热潮。
这一系列热潮背后,折射出了一个核心的命题:大语言模型(LLM)已不再停留在聊天对话框内,而是长出了“双手”(Claw),开始接管操作系统(OS)的控制权与多端通讯渠道。这种具备7×24小时在线、长期记忆和主动执行能力的AI,正在深刻重构人类的数字工作流。全社会的高度关注,正是源于对这种新型“数字劳动力”可能带来的生产力爆发的强烈预期。
AI智能体的学理演进与三维分类
从技术发展的脉络来看,这一现象并非偶然突变。自2022年ChatGPT掀起公众热潮以来,有关AI能力边界的探索从未停歇。早期模型以“对话”为核心,擅长生成文本,但缺乏行动能力;继而出现了以函数调用(Function Call)为代表的“工具调用型”智能体,能够在人类监督下操作外部API;而以OpenClaw为代表的新一代产品,则将这种能力推进到了“计算机自动化操作”的层次,实现了从“语言生成”到“行动执行”的跨越。如果说前两代AI的主要价值在于信息处理,那么这一代AI的核心价值则指向自动化执行。这是一个量变引发质变的关键节点,值得全社会认真应对。
在学术界和工程界,根据智能体与外部世界交互的深度、自主性以及任务闭环能力,可以将现有的AI智能体(AI Agent)划分为以下三个演进阶段(表1)。
表1 AI智能体三阶段演进对比
1. 对话生成型智能体(Conversational Agents)
特征与原理:这是大模型爆发初期的标准形态(如早期的ChatGPT或DeepSeek)。其核心机制是“文本输入—概率预测—文本输出”。它们存在于封闭的沙箱中,缺乏对外部世界的感知能力和操作接口。
优势:部署成本极低,交互自然(自然语言即代码),在文本创作、逻辑推理和知识问答等认知计算领域表现出极高的智商。
劣势:存在“信息幻觉”与 “行动瘫痪”。它们只能给出步骤建议,无法替用户在物理或数字世界中实际执行操作。在人机协同模型中,人类依然是物理或数字动作的最终执行者(Human-as-the-executor),导致业务流程存在明显的断点。
2. 工具增强型智能体(Tool-Augmented Agents)
特征与原理:这一类型在对话型智能体基础上引入了外部工具调用能力。典型代表包括支持插件体系的GPT-4、基于MCP(Model Context Protocol,模型上下文协议)的各类工作流产品,以及国内企业推出的RPA(机器人流程自动化)与AI融合方案。其工作方式是:模型在推理过程中可调用搜索引擎、数据库、日历、邮件等外部接口,将信息获取与操作指令转化为具体的API调用,或者在特定的平台内读取数据。
优势:能够获取实时信息,扩展了AI的行动能力边界,在一定程度上实现了单点任务的闭环(如“帮我查一下今天的天气并写一首应景诗”)。在定义清晰的工作流程中表现稳定,错误率相对可控,极大缓解了幻觉问题。同时,由于每个工具调用都有明确的接口记录,审计与回溯也相对方便。
劣势:这一类Agent仍具有强烈的“被动触发”属性。它们缺乏长期记忆(Long-term Memory)和跨应用统筹能力,工作流是碎片化的,无法实现7×24小时的自主监控与多步骤长程任务规划。
3. 全天候自主执行型智能体(以OpenClaw为代表)
特征与原理:这是当前引发轰动的最新形态,标志着智能体演进的一个新阶段。OpenClaw不仅集成了大模型的认知能力,更重要的是它打通了操作系统(OS)级别的控制权以及主流即时通讯(IM)工具的接口。它具备直接操控计算机图形界面的能力——通过模拟鼠标点击、键盘输入、屏幕截图分析等方式,像人类操作员一样在任何软件界面上执行任务,同时也支持API接口调用。这意味着,原则上它可以操作任何具有图形界面的软件,包括那些没有开放API的遗留系统。此外,它还具备本地文件处理、系统命令运行、长期记忆存取和自动调度能力。
优势:适用范围突破了接口限制,具备高度通用性。对于重复性、规律性强的操作任务(如批量数据录入、格式统一化处理、跨系统信息同步),效率提升极为显著。它还能够处理长程、多步骤的复杂任务,减少对人类持续监督的依赖。例如,用户在微信中下达一句指令,QClaw(腾讯研发的基于 OpenClaw 的本地 AI 助手)即可在后台自动打开浏览器抓取数据、整理成Excel、通过邮件发送,并随后在微信中向用户反馈结果。真正实现了“跨平台闭环”与“全天候在线”,真正实现了“异步数字打工”,打破了人类工作时间的限制。
劣势:第一,安全隐患呈指数级放大。当AI的“幻觉”转化为实际行动时,风险可能是致命的,例如,误删核心文件、错误发送商业机密等都可能发生。2026年2月爆发的“ClawHavoc”供应链投毒事件(1184个恶意技能被植入,波及超13万台设备)便是深刻的教训。第二,部署与维护门槛较高。复杂的本地环境配置和高并发下的稳定性维护,使其目前严重依赖腾讯云轻量服务器等云端托管服务来实现物理隔离和持续运行。
OpenClaw类自主智能体的工作适用性边界:基于“工作流和方法论清晰度”的判断框架
随着OpenClaw的大范围普及,社交媒体上出现了明显的两极分化:一方将其“神化”为“能顶半个团队”的超级神器,另一方则对其“祛魅”,认为它“不安全、用处有限”。
然而,无论是“神化”还是“祛魅”,都忽视了一个关键问题。OpenClaw类智能体发挥价值的真正门槛,并不在于复杂的底层技术配置,而在于使用者自身是否具备清晰的工作流和成熟的方法论。换言之,智能体在不同工作场景中的适用性,受到任务特征的严格制约。
为了直观地理解这种制约,可以从四个维度来评估一项任务是否适合交给自主智能体:工作流的逻辑确定性(P,Predictability)、失败的风险容错度(F,Fault Tolerance)、环境的数字化闭环程度(C,Digital Closure),以及任务的执行频率(f)。四者的关系可以简化表达为:S = F × P × C × f。其中,频率f是放大因素——越是高频重复的工作,越适合交给智能体执行。
基于这一框架与当前的行业实践,可以总结出以下三条适用性规律(图1)。
图1 自主智能体的工作适用性边界
规律一:高确定性 × 全数字闭环 = 极度适用
当工作流的逻辑确定性(P)和数字化闭环程度(C)都很高,且失败风险可控时,OpenClaw能表现出颠覆性的效率。
适用场景:日常IT运维巡检、标准化的客服分流、竞品数据的定时抓取与报告生成、多渠道社交媒体的自动内容分发。
学术解释:这类工作本质上是“标准化数字劳动”。OpenClaw凭借系统级操作能力,可以完全替代人力完成基于规则的“复制—粘贴—分析—发送”循环,彻底消除流程中的人力等待时间。
规律二:高风险敏感 × 低容错空间 = 极度不适用
当失败容错度(F)趋近于零时,即使任务本身看似简单,也绝不应完全交由当前阶段的自主智能体执行。
不适用场景:企业核心财务系统的自动打款、医疗临床辅助诊断中的直接用药执行、涉及复杂法律风险的合同最终签署。
学术解释:原因在于,大语言模型的底层机制决定了它无法达到100%的逻辑严密性,微小的幻觉概率不可避免。在对话场景中,幻觉只是一条错误的回复;但在行动场景中,1%的幻觉可能导致100%的灾难。因此,在此类高风险工作中,OpenClaw只能退回到“建议者”的角色,必须引入“人在回路”(Human-in-the-loop)机制进行最终把关。
规律三:非标准化交互 × 情感博弈 = 适用性受限
当工作流的确定性(P)极低,需要大量隐性知识(Tacit Knowledge)和情感判断时,OpenClaw类智能体目前难以胜任。强行引入自主智能体,不仅无法提升效率,反而会引发“技术反噬”。
不适用场景:深度商业谈判、心理咨询干预、需要结合线下物理世界模糊反馈的统筹协调工作。
一个值得警惕的现象是低频用户的“伪需求”:不少月产出极少的个人用户,急于搭建所谓的“个人AI中台”。但由于自身缺乏成熟的工作方法论(即P趋近于0),配置过程极其烦琐,最终产出寥寥,反而陷入了“配置多、产出少、焦虑翻倍”的负反馈循环。
学术解释:本质上,自主智能体是“效率放大器”——它只能放大已有的成熟流程,而无法凭空创造工作流。OpenClaw的感知能力局限于数字屏幕和API接口,面对包含微表情、语气暗示、复杂人际博弈的非结构化现实环境,其逻辑推演能力往往会失效。
自我审视:先练方法,别急追工具
“OpenClaw现象”带来的最大启示,不仅在于AI具备了自主行动的能力,更在于它像一面镜子,照出了人类自身工作模式的短板。
面对强大的自主智能体,成熟的组织和个体应当停止“神化”或“恐惧”,转向理性的“自我审视”。在引入OpenClaw之前,必须先问自己一个核心问题:“我手上到底有没有值得系统化的重复工作?”
如果没有,那么当务之急是先修炼工作方法论,厘清业务逻辑,而不是盲目追逐新工具。如果有,并且能够将其清晰地拆解为逻辑闭环,那么以OpenClaw为代表的自主智能体,才能真正为你创造指数级的价值。未来的人机协同时代,属于那些既懂创造、又善于定义流程的“数字工作流架构师”。
结论与展望
“OpenClaw现象”不是一场短暂的技术盲从,而是人类社会向“人机协同原生”(Human-AI Co-native)时代过渡的重要里程碑。从对话到工具,再到全天候自主执行,AI Agent正在重塑“劳动力”的定义。然而,通过适用性规律的分析我们可以看出,OpenClaw并不能直接“接管”所有工作。它的出现,实际上是将人类从“烦琐的数字执行者”逼向了更高维度的角色——数字工作流的设计者(Designer)与最终风险的审核者(Auditor)。
同时,技术适用性不仅是功能性问题,也是组织性问题。自治操作型智能体的引入,要求组织具备相应的数据治理规范、权限管理体系和操作审计机制。如果组织的基础信息化建设尚不完善,贸然引入高水平智能体,不但难以发挥优势,反而可能引发数据安全、流程混乱等新问题。部分基层政府部门和中小企业在推广中遭遇的困境,在一定程度上正源于此。
更为重要的是,“OpenClaw现象”不仅是技术层面的效率革命,更在于它正在悄然触及整个社会的劳动结构、权力分配与制度生态。从社会技术系统理论(Sociotechnical Systems Theory)的视角来看,自主智能体的普及正在至少三个层面上催生结构性张力。
其一,跨行业的职业替代冲击。以往每一轮技术革命所引发的职业替代,通常呈现出清晰的行业边界:机械化冲击蓝领体力劳动,早期自动化冲击流水线操作岗位。然而,以OpenClaw为代表的自主执行型智能体所替代的,是跨越行业边界的“数字执行层”——凡是以“在屏幕上进行重复性操作”为主要工作内容的岗位,都面临替代风险:数据录入员、初级内容运营、基础行政助理、标准化客服等大量白领职位概莫能外。与工业革命不同的是,这一轮冲击速度极快、边界模糊,且受冲击群体往往缺乏足够的技能再培训资源与时间窗口。更值得关注的是,技术扩散速度与社会保障响应速度之间存在明显的结构性错配——当OpenClaw已经可以“一键云端部署”时,针对受影响群体的转型支持政策尚付阙如。
其二,AI红利的数字鸿沟效应。智能体的高效运用,要求用户具备清晰的工作流设计能力、基本的系统配置素养以及将任务逻辑结构化分解的能力。这意味着,在现阶段能够真正驾驭OpenClaw类工具的,主要是本身已具备较高数字素养和方法论能力的群体。而对于数字素养相对薄弱的用户——包括大量中小企业主、基层行政人员和欠发达地区的从业者——即便政府和平台提供了“免费安装”的技术入口,实际的使用壁垒依然高企。这意味着,OpenClaw的普及浪潮存在“马太效应”的风险:技术能力强者因工具而如虎添翼,技术能力弱者则可能因工具的复杂性而被进一步甩开。政府在推动AI工具普惠化时,若仅关注部署层面的“技术可及性”,而忽视使用层面的“能力可及性”,则极有可能将一次本可普惠的技术红利,转变为加剧分化的催化剂。
其三,监管真空与责任归属的制度困境。当AI仅是“生成建议”时,责任归属相对清晰——人类是最终的决策者与执行者,AI只是辅助工具。但当AI成为“自主执行者”时,这一责任链便出现了深刻的断裂。若OpenClaw在执行任务过程中因“幻觉”误删企业核心数据、错误发送商业机密,又或者——如“ClawHavoc”事件所示——因供应链投毒而沦为攻击工具,那么损失由谁承担?是开发者、云服务商、企业管理者,还是最终用户?目前的法律框架,无论是《网络安全法》《数据安全法》,还是《生成式人工智能服务管理暂行办法》,均尚未对“自主执行型人工智能”的行为责任做出明确的界定。监管的空白地带,正是技术风险最容易被忽视、却最终可能酿成系统性危机的地方。
综上所述,“OpenClaw现象”在社会技术层面的核心挑战,不仅仅是“如何让更多人用上这个工具”,而是“如何在技术扩散速度与制度响应能力之间构建一种动态平衡”。学术界与政策界需妥善推进三项工作:一是,针对“数字执行层”受冲击群体建立过渡性的职业转型支持体系;二是,将“能力可及性”纳入AI普惠化政策的核心评价维度;三是,尽快启动针对自主执行型AI的行为责任立法归属研究,为即将到来的“人机和谐时代”夯实制度地基。
未来,随着OpenClaw类自主智能体等产品的进一步内测与普及,全天候智能体将像水和电一样成为基础设施。学术界与工业界亟需解决的下一代核心课题,将不再是“如何让AI动起来”,而是“如何为具备行动能力的AI建立完善的数字安全隔离带与伦理监管框架”。在社会各界加速“试水”的当下,保持对适用边界的“冷思考”,或许比急于全面推广更为紧迫。
本文来自微信公众号“复旦商业知识”(ID:BKfudan),作者:胥正川,36氪经授权发布。















