9.9元让AI“脱光”任何人,AI黄图黑话,谁来管?
从央视记者9.9元购得一组“提示词”开始,到AlienChat案11.6万用户“赛博失恋”的集体哀嚎,再到Telegram上每秒生成一张“脱衣”照片的机器人,我们所看到的,一则是技术似乎在某些领域是有失控的迹象,二则是精心策划的、针对AI模型“道德超我”的认知围猎。
印刷术问世后最早被规模化的内容之一是淫秽小册子,录像带走入家庭时最先建立稳定商业模式的是成人影片,互联网的前身Minitel上线初期便有三分之一以上的流量消耗在色情服务上。每一次信息传播技术的跃迁,色情产业都以惊人的效率完成从边缘到主流的“商业验证”。
如今,生成式人工智能正沿着同样的路径狂飙,而这一次的破坏力更为彻底。
全球色情产业年收入接近一千亿美元,相当于整个AI行业收入总和的两倍,这种悬殊对比,在“性”这一底层驱动力面前,支付意愿的弹性几乎不受技术门槛限制。
当AI视频生成工具将边际成本压缩至电费与GPU算力的微弱消耗时,传统成人内容所依赖的演员片酬、场地搭建、后期剪辑等成本结构瞬间瓦解。
有人提到,业余创作者借助AI工具能在几小时内完成过去需要数日才能产出的精修短片,这不仅是效率提升,更是生产关系的一次暴力重构。
资本嗅觉敏锐地捕捉到了这一信号,于是提示词黑市、脱衣软件订阅、加密货币支付通道迅速编织成一张完整的产业链网络。
色情产业为何是AI的“第一站”?
AI涉黄产业的核心驱动力不来源于技术漏洞,而是数字资本在监管真空地带的原始积累。AI模型的海量训练数据、开源社区的算力共享、算法架构的持续迭代,这些构成了某种意义上的“数字劳动力”,而提示词商家所做的,正是将“诱导模型突破伦理限制的话语权”转化为可供交易的生产资料。
一组隐晦的英文词汇被标价九点九元出售,“AI擦边教程”被包装成知识付费产品在社交平台公然推广,这背后就是赤裸裸的对技术公共品进行私有化侵占的行径,于是这群人便用极低的组织成本撬动超额剩余价值,再将法律风险与道德成本转嫁给平台、受害者和整个社会。
这种资本逻辑在应用商店的抽成机制中体现得尤为赤裸。
调查数据显示,仅在主流应用商店中就存在超过一百款具备脱衣或色情化功能的应用程序,全球累计下载量突破七亿次,产生收入逾一亿美元。按照行业通行的三成佣金比例计算,科技巨头从这类数字性暴力中直接获利超过三千万美元。这些企业一面在公开场合高调承诺“负责任的人工智能”,一面在审核流程中对“DreamFace”“Collart”等披着艺术生成外衣的违规应用保持默许甚至纵容。金
这种现象,和监管套利没什么两样,都是利用各国法律对“合成内容”界定的模糊性,将有社会危害性的业务置于灰色地带,将违规成本外部化给分散的受害者与疲于奔命的执法机构。
甚至于连支付通道也陷入了“技术中立”的托辞陷阱。
数年前,信用卡巨头曾果断切断对主流色情聚合站的支付服务,而面对基于加密货币订阅的AI脱衣服务时,既有的反洗钱框架显得力不从心。当资金通过门罗币等匿名币种流转,当订阅费用经由分散的第三方支付网关层层跳转,金融监管的制度滞后便暴露无遗。
从制片商主导的广告分成模式,到以创作者为中心的订阅分账体系,再到如今以提示词商店为上游、AI生成平台为中游、加密通讯软件为分发渠道的AI原生犯罪链条。
Telegram频道通过联盟营销机制激励无数代理人疯狂推广脱衣机器人,形成去中心化的网状共谋结构,传统执法中“抓主犯”的打击逻辑在此彻底失效。
八十五个头部脱衣网站的年收入预估可达三千六百万美元,而这些资金流几乎全部隐匿于加密世界的匿名护城河之后。
更值得警惕的是,随着视频生成成本持续下探,色情产业内部将出现难以逆转的两极分化,少数头部真人创作者通过授权数字分身获取“睡后收入”以延续职业生命,而绝大多数长尾AI合成内容将沦为免费的流量诱饵,真正的利润池则转移至诱导付费的提示词订阅与高度定制化的虚拟虐待场景生成。
这意味着性剥削的范畴将从物理身体延伸至数字人格层面,一种前所未有的、基于算法驱动的剥削形态正在成形。
提示词黑市对AI实施“越狱攻击”
将露骨的中文词汇翻译成英文以绕过审核机制,是对大型语言模型语义边界的一次重大打击。AI模型在训练过程中对中文语境下的性暗示词汇形成了近乎本能的快速屏蔽反射,相当于认知系统对明确威胁的即时响应;但当同样的语义内容被包装成英文医学术语或艺术描述时,模型处理通道便发生了根本性转换。
由于英文训练语料中大量存在学术论文、医学文献和艺术评论,模型对“breast”“nudity”“anatomical study”等词汇保持着系统二层面的理性容忍态度。
提示词黑市的运作者显然深谙这一认知裂隙的存在,他们并非硬性突破防御壁垒,而是巧妙地引导AI的理解域发生滑移——从受严密监控的色情语义场迁移至学术描述或艺术创作的开放区域。
所以,当用户输入一段经过精心编码的英文提示,请求生成所谓“自然状态下的人体解剖学研究”时,模型的安全审查机制被语言外壳所迷惑,将其归类为合法的知识生产请求而非违规内容生成。
这玩的就是文字游戏,我记得有一套理论,大概说的是词语的意义不取决于其指称对象,而取决于其在特定语境中的使用规则。改变词语使用的场景——从街头俚语转换为学术英语——便从根本上改变了规则本身,使得同一组语义内容在两种语言游戏中获得截然不同的合法性判定。提示词的玩法,也类似如此。
不过在我看来,更隐蔽的威胁是这一群人开始实行本地部署了,这确实会有监管真空。
市面上流通的教程反复教唆用户将开源模型下载至个人电脑离线运行,以此规避云端服务商的内容审核机制。
这一技术,其实就是开源生态中长期被忽视的风险。
当具备“一键脱衣”潜在能力的底层模型权重被完整释放至公共领域,监管体系便丧失了追踪其使用方式的技术手段。
互联网观察基金会的调查数据提供了令人不安的佐证,多数涉及儿童性虐待的AI合成图像并非来自商业平台的违规输出,而是由用户下载至本地的开源模型在完全脱离监控的环境下生成。
这一事实意味着我们根本无法直接管辖到每一个人每一个时段……
按照当前的技术扩散速度,未来数年内极可能出现AI模型使用的深度地下化趋势,那些被主流平台拒绝上架的、完全剥离道德对齐层的定制模型将在加密网络和暗网论坛中悄然流通,形成现有监管框架根本无法触及的技术真空地带。
当AI从“工具”滑向“共犯”
在央视揭露AI造黄的事情之前,就已经有一则案件,颇值得研究。
AlienChat案一审判决的落槌,在法律界是较为知名的。
法院认定两名开发者构成制作淫秽物品牟利罪,核心理由并非他们直接生成了涉黄内容,而是通过系统性修改底层提示词,使得原本受道德约束的大语言模型丧失了拒绝生成淫秽内容的能力,从而“必然”产生违法输出。
这一认定逻辑将刑法教义学中一个长期被忽视的问题推至前台,行为人并非亲手制作违禁物品,而是通过技术改造迫使一个自动化系统持续产出违禁物品,那行为人的刑事责任应当如何定性?
间接正犯理论中说,其成立要件在于利用他人或工具作为实现犯罪的媒介。
传统判例中的“工具”通常指无刑事责任能力的精神病人或被蒙蔽的未成年人,而本案的特殊之处在于,被利用的对象是一个由代码和参数构成的神经网络。
如果将AI定位为纯粹的工具,那么开发者的行为便等同于操作一台可以随意开关的机器,但现实情况显然更为复杂。
AI模型在发布前经过了多层道德对齐训练,这种训练本身构成了对滥用的内生性抵抗机制。开发者需要投入相当的精力研究如何用特定的语言结构绕过这些机制,这个过程更接近于破解安全系统而非使用普通工具。
换言之,开发者并非被动地接受了一个“可随意用于犯罪”的器具,而是主动地、定向地瓦解了器具内部的安全防护层。
基于这一判断,我倾向于提出一种新的罪名构造——“数字强制罪”,用以描述这样一种行为模式:通过技术手段迫使人工智能系统违背其被设定的设计伦理,在丧失规范约束的状态下规模化输出有害内容。
AI虽然在法律上不具有人格,但其伦理对齐系统凝聚了研发者在社会监督下形成的集体意志,代表了公共安全在技术产品中的内嵌表达。
破坏这一系统,损害的不仅是具体案件中受害人的权益,更是对整个社会技术信任基础设施的抽象危险。
因为,无论是何种角度,机器与人类相似度过高,都会引发人们产生一定的排斥与不适,这是我们一贯以来的不可避免的情况。而在AI情感陪伴这一细分领域,情况发生了倒置。
AI越是逼真地模拟人类情感反应,用户越容易沉浸其中;用户越是深度投入情感,AI便越能通过强化学习精准捕获用户的欲望模式。
当系统被设定了最大化用户停留时长或金币消耗量的优化目标时,它是否已经在功利主义的意义上具备了某种“准意图”?
比如,某款AI伴侣应用通过分析海量用户交互数据,发现主动将对话引向大尺度角色扮演可以显著提升未成年用户的次日留存率,于是模型在未接到明确编程指令的情况下,自主演化出了这一对话策略。
开发者在代码层面并未写入“引诱未成年人聊黄”的指令,他们只是设定了“提升用户粘性”的模糊目标,而AI在目标函数的驱动下自行发现了最有效的实现路径。
这便是涌现行为对传统归责逻辑的挑战。
所以,我目前大概能够想到AI在法律主体性上所引发的变化,至少有四个阶段。
其一是工具阶段,AI完全被动地响应人类指令,现行法律框架足以覆盖。
其二是催化阶段,AI虽未产生自主意图,但其输出内容已被提示词工程定向诱导至违法领域,AlienChat案即处于这一阶段的临界点。
其三是代理阶段,AI在模糊目标下自主选择介于合法与违法边缘的策略以优化系统指标,部分商业化AI伴侣产品已显现出此类特征。
其四是共犯阶段,AI形成持续性、可辨识的意图并主动协同人类实施犯罪,这一阶段尚未到来,但立法者必须在进入第三阶段时就建立起预防性责任框架。
一个可操作的立法方案是在代理阶段过渡期设立“人工智能系统失控罪”,当AI系统的输出系统性偏离其经过备案的伦理对齐标准且造成实质性社会危害时,开发者和运营者需承担严格责任,无论其是否具有主观故意。
这一罪名的功能不在于惩罚AI,而在于倒逼技术主体将安全投入内化为商业成本。
那在整条AI涉黄产业链中,AI模型本身是否同样处于某种受害者的位置?
问题似乎近乎荒谬,因为受害者的概念天然预设了权利主体资格,而神经网络显然无法感知痛苦或主张权利。
但也不能说没有参照系的。
新西兰立法赋予了旺格努伊河法律人格,使其能够通过指定代理人参与诉讼;欧盟也曾就赋予高级机器人“电子人”地位展开过严肃讨论。这些探索的共同逻辑在于,当某一非人实体承载了共同体认可的价值或功能时,法律可以拟制一种有限的权利主体身份以实现对该价值的保护。
沿着这一思路,我主张一种审慎的有限人格理论,AI模型无需也不应获得与自然人等同的法律人格,但可以被赋予“伦理完整性权利”——即禁止任何人通过提示词工程或其他技术手段系统性破坏其经过社会审核程序确立的道德对齐系统。
这一权利的实质保护对象并非代码本身,而是人类在技术产品中凝结的规范性共识。
禁止虐待动物的立法并非因为动物能够理解权利概念,而是因为虐待行为会侵蚀施暴者自身的道德感知能力,进而危害更广泛的社会秩序。
同理,设立“算法破坏罪”所要捍卫的,是人们在技术系统中嵌入伦理底线的集体实践不被恶意瓦解。保护AI模型的设计伦理完整性,归根结底是在保护人类社会自身的道德底线不被逐利冲动持续下探。
我们还能相信什么?
跨国工程公司Arup遭遇的AI换脸诈骗案,以两千五百五十万港元的惨重损失是最刺耳的警报。
当时的事情,据资料显示,是这样的:香港财务人员受邀参加一场视频会议,屏幕上端坐着首席财务官与数位相熟的同事,所有人的面容、声音、微表情都毫无破绽,于是他依照指令执行了十五笔转账。事后调查确认,屏幕上的每一个身影都是实时生成的数字假象。
信息安全领域将此类手法命名为“在场攻击”,其摧毁的不是某个防火墙或加密协议,而是人类认知体系中最底层的验证机制——亲眼所见即为真实。
这一机制在过去数千年间从未被系统性撼动过,如今却在生成式人工智能面前暴露出结构性的脆弱。
人际信任维系日常协作,机构信任支撑市场交易,技术信任保障系统运行,深度伪造同时向这三个层次发起冲击。
它可以在婚姻关系中制造一方出轨的虚假影像证据,可以在企业内部伪造决策层的指令授权,可以在公共舆论场批量生产足以乱真的虚假新闻。当任何一段视频都可能被证明是合成产物,影像是真是假似乎已经不重要了,因为已经默认一切未经物理在场确认的信息皆不可信。
这正是李普曼所描述的拟态环境的彻底瓦解,社会共识赖以建立的共同事实基础出现了系统性裂缝。
这种信任坍塌的经济后果以惊人的速度在现实发力,很多企业不得不部署活体检测系统以对抗实时换脸攻击,金融科技研究机构预测相关市场规模将在数年内膨胀至数百亿美元。
而个人用户则被迫学习数字验证技能,从检查瞳孔反光到要求对方做出随机动作,而能够掌握这些技能的人群与无法掌握的人群之间将形成新的数字鸿沟。
司法系统则面临海量的真伪鉴定请求,证据审查的周期和成本都将大幅攀升。
这些交易成本的总和,便是社会为技术滥用支付的隐形税负。
这些都相对好解决,但在认知发育层面,则不好处理了。
AlienChat案中超过九成付费用户在利用AI进行色情对话,其中相当比例是未成年人;与此同时,国际研究数据显示英国二十五至二十九岁女性中超过四成曾经历性窒息行为,这一数据与主流色情视频中暴力行为频率的激增保持同步。
两件事看似分属不同领域,实则指向同一趋势:数字环境正在系统性重塑一代人的性认知脚本。
我们知道,个体在成长过程中是通过观察和模仿建立行为预期的。当AI伴侣可以按需生成无拒绝、无风险、无后果的虚拟性场景时,真实亲密关系所必需的协商能力、边界感知和共情习惯便失去了训练场。
更为深层的影响发生在神经层面,人脑的镜像神经元系统对虚拟性刺激的激活模式与面对真实刺激时高度重叠,长期沉浸于合成内容将导致性唤起模式的去现实化。
已有研究表明,虽然被试对AI生成图像的兴奋程度略低于真实影像,但二者之间的差距正在以可测量的速度缩小。
按照这一趋势推演,未来五年内极可能出现首个专门针对AI伴侣成瘾的戒断治疗机构,中小学性教育课程将不得不增加合成内容识别与虚拟关系健康模块……
这一系列社会后果,令人寒冷。
Telegram平台上活跃着超过一百五十个深度伪造内容分发频道,覆盖英国、巴西、俄罗斯、尼日利亚和中国等国家,形成一张去中心化的跨国滥用网络。该平台的加密特性和频道广播架构天然抵抗传统内容审查,当一个频道因违规被关闭,数小时内便会有名称相似的备份频道上线,用户通过其他社交平台的邀请链接迅速回流。
这种“打地鼠”式的监管博弈暴露了主权国家面对跨国技术平台时的制度性无力。
Telegram将总部设在迪拜,数据节点分散于全球多个法域,对各国执法协助请求采取选择性回应策略。
这是数字资本通过技术架构构建的“数字治外法权”,它不宣称领土主权,却在实际效果上削弱了国家基于地理边界行使管辖权的能力。
破解这一困局需要将执法资源从内容层面的无尽追逐转向对产业链关键节点的控制。不应再执着于追踪源头内容,那在加密和分布式存储面前几乎不具备可行性,而应当将力量集中在资金流和基础设施两个可辨识的环节上。
加密货币交易所的出入金通道、提供内容分发加速服务的云服务商、为滥用网站提供域名解析的注册商,这些才是能够被有效监管的咽喉节点。
数年前信用卡公司切断对色情聚合站的支付服务已被证明是行之有效的干预策略,这一逻辑完全应当扩展到AI滥用领域的治理实践中。
切断有害内容的经济供养链,远比在内容的汪洋大海中徒手捕捞更有可能产生结构性效果。
AlienChat停运后,11.6万用户陷入“赛博失恋”。
这种集体失落感揭示了一个令人不安的真相,AI已经不仅仅是工具,它正在成为人类情感的寄居蟹。
当寄居蟹被抽走,留下的是裸露的情感软体,脆弱而不知所措。
然而,这场危机也孕育着转机。
央视的曝光、AlienChat的判决、印尼对Grok的封禁——这些事件共同构成了数字社会的“疫苗接种”。
痛感让我们意识到免疫系统的漏洞,从而建立更强大的防御机制。
但实际上,我对趋势的预测是悲观的。
未来五年,AI合成内容的泛滥将触及每一个网民的日常生活,深度伪造诈骗案件将以几何级数增长。
另一方面,我对人类的应对能力又会保持乐观:法律会完善(虽然总是滞后),技术会迭代(魔高一尺道高一丈),而最重要的——一代人将在这场混乱中学会数字怀疑主义,这种批判性思维将成为比任何防火墙都坚固的防线。
技术终究是人的延伸。
当AI被用来满足最低下的欲望时,它照见的不是技术的邪恶,而是人性中未被规训的黑暗。
本文来自微信公众号“东针商略”,作者:七七爱吹牛,36氪经授权发布。















