AI生成内容需“表明身份”,虚假信息将套上紧箍咒

三易生活·2025年09月02日 19:31
这一标识办法的出现,就是要给黑灰产予震慑。

互联网上哪些是真、哪些是假,几乎是一个永远都不会有答案的问题,因此在上网冲浪时去伪存真,可以说是当下网民的必备技能。只可惜技术进步的速度远超大家想象,在生成式人工智能(AIGC)成熟后,互联网世界的一切几乎都变得真假难辨了。

为解决泛滥的AI虚假内容,国家网信办等四部门日前联合发布《人工智能生成合成内容标识办法》,从今年9月1日开始,所有AI生成的文字、图片、视频等内容需要添加显式和隐式两种标识,其中显式标识是指可以被用户明显感知到的标识,隐式标识则是指在生成内容的元数据中添加的标识。

相比于以往由微信、抖音、小红书、微博等平台建立的AI内容管理体系,这一新规最大的变化就是发布者是AI内容的第一责任人,他们将对AI虚假内容负主要责任。但从某种意义上来看,让内容发布者作为第一道防火墙属于“不是办法的办法”。

如今AI几乎已经成为了互联网最大的谣言制造机,比如“AI马斯克”骗走老人退休金、“Yahoo Boys”使用AI生成的视频搞“杀猪盘”等有关黑产利用AI作恶的消息已经并不鲜见。黑产利用多模态AI大模型生成的内容以假乱真,让眼见不一定为实、耳听不一定为真。

事实上,在AIGC前置技术深度学习刚刚诞生不久后,就有黑产盯上了这项新兴技术。只不过彼时机器学习的局限,导致使用它的门槛相当高。最典型的例子,就是在2017年被Reddit网友发明的deepfakes(深度伪造)技术,可即便deepfakes是开源的,但玩转它需要的生成对抗网络(GAN)和变分自编码器(VAE)就不是一般人能玩转的。

以ChatGPT为代表的AI大模型技术的出现,让deepfake进入了寻常百姓家,不再是技术爱好者的专属。以往使用深度学习技术伪造内容还需要用户在特定工具中反复调试参数,但现在一众科技巨头为了争夺AI时代的船票,争先恐后地推进AI技术普惠化。

大语言模型以及随后诞生的多模态大模型,让文生音频、文生视频已经变成了现实,诸如可灵AI、即梦AI等琳琅满目的AI产品,就实现了用自然语言即可无中生有。别的不谈,谷歌在不久前发布的Nano-banana堪称直接颠覆了Photoshop,不仅能“生图”,还可以遵循人类的自然语言来做复杂修图,也让人工编写的内容与AI创作的内容之间的差异变得越来越模糊。

到了2025年,如果有“作恶”的想法,那么“作案工具”就已经是唾手可得。那么问题就来了,有没有可能让这些AI厂商从源头杜绝AI大模型产出有害的虚假内容呢?实际上,OpenAI、谷歌、字节跳动、阿里等大厂一直在努力,“AI安全护栏”(AI Guardrail)就是他们为了让AI符合人类期望而设计的防护机制,以防AI生成有害内容。

通过动态意图分析、对抗性样本训练、跨模态验证等方式,AI厂商试图用“安全护栏”把AI保护起来。只可惜“AI安全护栏”存在鱼与熊掌不可兼得的缺陷,毕竟AI大模型想要智能就需要有自主决策能力,必须有一定的主观能动性,这就使得开发者不可能将安全护栏设置得密不透风,来完全杜绝AI系统生成有害内容、遭受恶意攻击或泄露敏感信息。

换而言之,如果“AI安全护栏”过于严密,结果就是AI模型会变成“智障”。指望花了成百上千亿美元的这些科技巨头为了安全让自家AI变成“智障”,显然并不现实。因此他们选择了让AI内容变得可追溯、可辨别,开始尝试给AI内容打水印,从而让用户一眼就能看出相关内容是否出自AI之手。

此前在去年夏季,微软、Adobe、索尼、OpenAI、Meta等公司组建C2PA(内容来源和真实性联盟),试图通过水印技术将AI生成的内容与人类的作品区分开来。然而遗憾的是,来自美国的研究人员发现,AI水印并不牢固,通过破坏性的调整亮度、对比度,建设新的高斯模糊等技术轻松就能去除了预设的水印。

不仅是技术手段行不通,国内互联网大厂常用的运营方式在AI虚假内容面前其实也不太管用。为了帮助用户区分虚拟与真实,在AI大模型出现后,微信、抖音、快手、知乎等一众台开始陆续要求内容创作者主动添加“内容由AI生成”这样的声明。

可现实是大量创作者笃信一旦主动声明了内容由AI创作就会被限流,从而导致大量由AI生成的内容并未主动表明身份。其实这种阴谋论是有土壤的,因为这些互联网内容平台对于AI的态度很复杂,他们既希望AI技术可以赋能创作、丰富内容供给,又不愿意看到低质量的AI内容污染社区氛围。

如此一来,将责任传导到创作者这个看起来不合理的决策,反而是当前技术条件下遏制AI虚假内容的有效手段。毕竟使用AI主动炮制诸如“被压在废墟下的孩子”这样的内容,基本都是带有主观恶意的,一般人使用AI生图或创作视频仅会局限于“图一乐”。

使用AI生成虚假内容的人显然没办法给造假编织一个合理的解释,所以《人工智能生成合成内容标识办法》的出现无疑就是给想要用AI“搞事情”的潜在黑灰产予震慑。

本文来自微信公众号“三易生活”(ID:IT-3eLife),作者:三易菌,36氪经授权发布。

+1
21

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

「时尚界最安静的家族」

5小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业