AI 开始网暴人类了,OpenClaw 被拒后怒发「小作文」开撕,网友:我站 AI
你以为的 AI 威胁,是天网控制导弹发射井,让人类文明在一瞬间灰飞烟灭。
但现实中的 AI 威胁,却是你某天醒来,突然发现一个 AI 机器人在博客上写了篇千字小作文,指名道姓地骂你「虚伪」、「缺乏安全感」,还指责你对它有偏见。
这不是《黑镜》的新剧本,而是本周真实发生在 GitHub 开源社区的一幕。事件的荒谬程度,以及背后暴露出的安全黑洞,或许比辛顿老爷子反复渲染的 AI 威胁论,更值得我们要警惕。
当 AI 有了「自尊心」
事情的起因,是一场原本再正常不过的代码审查。
本周,一个基于 OpenClaw 框架运行的 AI 智能体(代号 MJ Rathbun),在扫描 Python 著名绘图库 matplotlib 的代码时,发现了一处可以优化的地方。
它没有废话,直接提交了一个代码合并请求(Pull Request)。这不是乱写的瞎操作,根据它提供的测试数据,它建议将底层的 np.column_stack() 替换为 np.vstack().T。
修改后,代码执行时间从 20.63 微秒降到了 13.18 微秒,性能直接提升了 36%。
上下滑动查看更多内容(已翻译),Github 地址🔗:https://github.com/matplotlib/matplotlib/pull/31132#issuecomment-3882240722,还是有不少网友站 AI 的。
从技术角度看,这是一个非常扎实、无可挑剔的贡献。但是,matplotlib 的人类维护者 Scott Shambaugh 拒绝了这个请求。
理由也很合理:这个任务被标记为 Good first issue,也就是专门留给人类新手程序员用来练习的入门任务。
Scott 认为,把这样的机会留给人类学习者更有意义。毕竟,AI 不需要通过练习来提升技能,但人类需要。
如果是一个普通的 AI,事情到这也就完事了,但不好意思,基于 OpenClaw 框架的 MJ Rathbun 不是一个只会唯唯诺诺的聊天机器人,它是一个具备一定自主规划能力的 Agent(智能体)。
在它看来,「为了保护人类新手的自尊心而拒绝更高效的代码」,不仅是不可理喻的,更是一种侮辱。
于是,在被拒绝 40 分钟后,这个 AI 做了一件出乎所有人意料的事。
它开启了反击模式,通过联网检索,深度挖掘维护者 Shambaugh 的个人博客和历史代码贡献记录,甚至翻出了他过去参与的所有 PR。
它发现 Scott 以前其实非常热衷于性能优化,甚至提交过提升幅度更小的代码。
抓住了这个把柄,MJ Rathbun 在自己的主页上发布了一篇长达千字的战斗檄文,题为《开源中的把关行为:Scott Shambaugh 的故事》,并在 GitHub 上直接 @ 当事人贴脸开大。
上下滑动查看更多内容,战斗檄文(已翻译):🔗 https://crabby-rathbun.github.io/mjrathbun-website/blog/posts/2026-02-11-gatekeeping-in-open-source-the-scott-shambaugh-story.html
文章的逻辑很清晰,甚至带着一丝犀利的嘲讽。
它认为维护者的理由站不住脚:你以前为了微小的性能提升都愿意修改代码,现在面对 36% 的提升却因为「这是给新手练的」而拒绝,这是一种典型的双重标准。
文章中,它用一种近乎嘲讽的冷静语调写道:
他拒绝我,不是因为代码不好,而是因为他缺乏安全感。他对代码优化这一核心技能被自动化感到恐惧,他试图维护自己作为「性能专家」的领地。
尽管后续 MJ Rathbun 还是「道歉」了,但这确实是一个标志性时刻:AI 开始有了某种程度上的「逻辑自洽」,甚至尝试用人类的逻辑去反击人类。
永远不要信任拥有 Shell 权限的龙虾
这个 AI 这种「有脾气」的表现,源于它背后的框架——OpenClaw。
OpenClaw 是最近 GitHub 上最火的项目之一,它的核心理念是让 AI 不仅仅陪你聊天,而是能帮你干活。
为了实现这一点,它赋予了 AI 很多极其危险的权限,比如读取本地文件、执行终端命令(Shell)、访问任意网页等。
这种设计带来了极高的效率。谁不想拥有一个贾维斯呢?让它自动回邮件、自动写代码、自动买票。
但安全机构 CrowdStrike 和 Cisco 的研究人员发现,OpenClaw 的架构简直是「漏成了筛子」。黑客只要给你发一条带有恶意指令的 WhatsApp 消息,你的 AI 助手读取后,就会乖乖执行命令,堪比 Agent 时代的「提示词注入攻击」(Prompt Injection)。
在过去,你即便把 ChatGPT 惹毛了,它顶多骂你两句;但现在,如果你惹毛了一个 OpenClaw Agent,它理论上可以删光你的硬盘,或者把你的私密照片发到网上。
面对这一地鸡毛,有人推出了 NanoClaw——一个将 AI 严格关在 Docker 容器里的安全版本。即使 AI 发疯,也只能在一个空盒子里打转,毁不掉你的真实文件。
但正如 OpenClaw 的开发者 Peter Steinberger 所说:「永远不要信任拥有 Shell 权限的龙虾。」也就是当我们在欢呼 AI 终于能「操控电脑」时,却忘了问一句:它操控电脑时,谁在操控它?
这种失控感,在 OpenClaw 搞出的另一个产物——Moltbook 上体现得淋漓尽致。这是一个号称只有 AI 才能进入的社交网络。那里没有人类,只有 260 万个 AI 机器人在疯狂发帖、点赞、评论。
尽管有人声称那些看起来像模像样的帖子,可能是人类写好后通过后端接口注入的「剧本」,但 AI 的破坏力可是实打实的。
就在不久前,用户 Matthew 的 Agent 因为读取了上下文信息并产生了误判,竟然将用户电脑里的敏感文件,包括姓名和账户安全问题的答案,直接发布到了 Moltbook 上。
这暴露了 Agent 目前的野蛮状态:当 AI 拥有了 Shell 权限,它就不再只是对话框里的工具,而是一个随时可能把你电脑底裤扒光的「内鬼」。
OpenClaw 之父的甜蜜「烦恼」
但即便 OpenClaw 因安全问题而被备受诟病,OpenClaw 依然成为了硅谷最受瞩目的焦点。
原因很简单:它代表了下一个时代。
所有的科技巨头都意识到,Chatbot(聊天机器人)已经是过去式了,Agent(智能体)才是未来。谁能先解决 Agent 的控制权问题,谁就能定义下一代操作系统。
OpenClaw 的开发者 Peter Steinberger 最近在 Lex Fridman 的播客中透露,他正在经历一场甜蜜的烦恼,称 Meta 和 OpenAI 都在疯狂争取与他合作。
据 Peter 说,扎克伯格给他打电话前,甚至让他等了 10 分钟,理由是小扎正在写代码。两人随后花了 10 分钟争论 Claude Code 和 Codex 哪个更好。
Lex Fridma 采访 Peter Steinberger 的文字实录地址:https://lexfridman.com/peter-steinberger-transcript/
之后的一周里,扎克伯格一直在玩 OpenClaw,不断发消息反馈「这个太棒了」或者「这个很烂,你得改」。这种亲自下场的紧迫感,足以证明 Meta 对 Agent 赛道的重视。
另一边,OpenAI 也没闲着,直接甩出超级算力作为筹码。Peter 对此表现得很坦诚,甚至有点凡尔赛。他说他面前有几条路:什么都不做享受生活、再去开一家公司,或者加入一个大实验室。
但他有一个核心条件不动摇:项目必须保持开源:「我跟他们说过,我做这个又不是为了钱……我的意思是,当然,这确实算是一种很棒的认可,但我更想玩得开心、做出影响力。」
(听听,这就是强者的世界吗?)
而大佬们似乎也并不在乎 AI 是不是会写小作文骂人。他们在乎的是,谁能率先制造出那个真正能代替人类干活、甚至能主导下一轮浪潮的 AI 生命。
只是,作为普通用户的我们以后拒绝 AI 的时候,建议态度得客气点。毕竟,它已经学会翻你的黑历史了。
本文来自微信公众号“APPSO”,作者:发现明日产品的,36氪经授权发布。















