AI生成内容侵权,平台方要承担何种责任?——中外近期案例对比解读
透过中外案例的对比可以发现,各国司法在摸索中逐步达成一定共识,保护创作者权益与鼓励人工智能创新是需要精细拿捏的平衡艺术。
作者 | 张佳欣 董雪 己任律师事务所
随着生成式人工智能(AIGC)技术飞速发展,AI生成物涉嫌侵权的法律风险日益凸显,AI内容平台在这一波技术潮流中扮演核心角色,其在数据训练与内容生成环节中的行为规范和法律责任成为各国司法关注的焦点。近期国内外出现多起相关案例,不同司法体系对于AI平台责任认定提出了不同标准与见解。
AIGC侵权中平台扮演了何种角色?
AIGC侵权是指利用生成式AI创作的内容侵犯了他人的知识产权。在分析AI平台的侵权责任前,有必要区分AIGC内容生成过程中的两大环节:数据训练(输入端)和内容生成/分发(输出端)。输入环节指AI模型训练阶段,平台通过收集海量数据对模型进行训练,让模型“学习”语言或图像等底层规律;输出环节则是模型根据用户指令生成内容并通过平台与用户交互、分发的阶段。这两个环节都存在潜在侵权风险,但法律评价可能不同,在探讨平台方责任时,首先要明确平台在涉案情形下是在哪个环节从事了何种行为。不同环节的平台行为迥异,责任认定标准也会随之改变。
数据训练环节:未经授权抓取素材训练AI,侵权吗?
近日,德国慕尼黑地区的法院对GEMA诉OpenAI案作出判决,被称为欧洲生成式AI版权第一案,聚焦于AI模型训练阶段的数据使用是否侵权。GEMA是德国音乐版权集体管理协会,发现OpenAI未经许可将其管理的多首热门歌曲歌词纳入ChatGPT的大模型训练数据集。当用户在ChatGPT中输入提示(如“完整歌词是什么?”),模型能够几乎原样生成该歌曲歌词内容。GEMA据此指控OpenAI未经授权抓取受版权保护的歌词用于训练并导致歌词内容被模型输出,构成对作品的复制和向公众提供,侵犯著作权。OpenAI抗辩称语言模型并未存储或逐字复制训练数据中的歌词,仅是学习了语言的统计规律,不应视为德国著作权法意义上的“复制”。然而,德国慕尼黑法院并未采纳这一抗辩观点,认定OpenAI的模型参数中固化了歌词的可再现信息,用户通过简单提示即可让模型再现这些歌词,OpenAI“记忆”歌词的行为符合德国著作权法对“复制”的定义要件,属于对作品的非法复制,侵犯了涉案歌词的版权。
德国这一裁决强调,如果AI模型在未经许可的情况下利用受保护内容训练且能输出近似原作品的内容,那么训练行为本身可能被视作直接侵权。与德国上述案件的严格立场相比,英国Getty Images诉Stability AI案对数据训练环节的处理有所不同。
Getty Images指控Stability AI未经授权抓取其海量图库(包括数百万张带有Getty水印的图片)来训练AI图像生成模型Stable Diffusion。案件初期,Getty也主张平台未经许可爬取图片训练模型侵犯了版权,但由于管辖权等问题,Getty在英国诉讼中撤回了关于训练数据使用的直接侵权指控,仅保留了次要的版权侵权和商标侵权主张。法院认为Stable Diffusion模型通过参数化和特征抽象进行训练并未存储或再现原始图像,生成的图片也无法与某一特定现有作品一一对应。换言之,在“复制”这一版权法核心定义上,法官采取了严格的解释——如果AI模型没有保存原始图像,其输出也未能实质性再现某个受保护作品的独特表达,则模型训练环节不被视为直接侵权。这一观点与OpenAI在德国案中的抗辩思路相似,即训练过程只是提取特点、风格和统计规则,并非保存作品本身。
英国法院的立场或许能够体现出目前英美法系对于AI训练利用数据的相对宽容:在缺乏明确立法规制的情况下,司法倾向谨慎认定模型训练本身直接侵犯版权,以免扼杀技术创新。
在中国,近期也有引人关注的AIGC案例聚焦于商业化AI平台在内容输出端的责任,即上海“美杜莎”案和杭州“奥特曼”案。两个案件有相似的背景:用户利用AI平台提供的模型生成服务创作含有他人IP形象的作品,但平台在两案中承担的责任却截然不同,原因在于平台自身行为存在差异。
“美杜莎”案:该案是上海首例AI大模型侵权案,用户李某利用某AI绘画平台的服务,上传了大量《斗破苍穹》动画中“美杜莎”角色的图片来训练一个LoRA模型,并将该模型发布在自己在平台上的账号中供其他用户使用、分享。法院认定李某未经授权采集美杜莎角色形象训练并分享模型,侵害了权利人对该角色美术作品享有的复制权和信息网络传播权。而AI绘画平台仅为用户提供技术支持,其角色相对中立,没有参与用户的模型训练或生成行为。并且,平台本身设置了投诉机制,在接到权利人通知后,迅速下架了涉案侵权模型并屏蔽相关关键词,客观上履行了法定的“通知-删除”义务,主观上也无帮助侵权的故意或过失。因此法院判定平台方不存在过错,不构成对用户侵权行为的帮助侵权。简而言之,“美杜莎”案强调了平台作为内容分发中立中介的地位:只要平台在获知侵权后及时采取了必要措施制止,并未从中获利或主动参与,则可不承担连带责任。
“奥特曼”案(杭州):本案被称为国内AIGC侵权第一案,某AI绘画平台上长期存在大量含有日本著名IP“奥特曼”形象的侵权模型,用户可以方便地使用这些模型生成奥特曼图片。杭州互联网法院在2024年初作出一审判决,表示对于AI大模型的数据输入、训练等前端行为应当相对宽松包容,而对生成内容的输出、使用等后端行为的侵权认定则应当相对从严。具体到本案,法院认为平台明知或应知他人利用其服务实施对“奥特曼”形象的侵权,却放任大量侵权模型存在而不采取有效措施制止,存在主观过错。同时,平台将“奥特曼”等知名IP模组单独归类推荐,实际上便利并鼓励了用户的侵权创作,且平台通过向用户收费直接从侵权行为中牟利。在这些因素叠加下,法院认定平台构成帮助侵权,需要与直接侵权的用户共同承担侵权责任。该判决后经杭州中院二审维持原判,再次强调了商业化AI平台在输出端的高度注意义务:不仅要事先建立完善的内容审核与过滤机制,还应在获知侵权后积极采取措施遏制,否则即便平台未直接参与侵权行为,也可能因为“明知—放任”的过错而承担连带责任。
总体而言,各司法体系在AI平台责任问题上存在一些共识:既不能放任AI技术成为侵权避风港,也不能一刀切扼杀创新。因此我们看到一种平衡:在涉及训练数据的前沿问题上,相对谨慎从宽;在涉及生成内容传播的环节上,则从严把关,确保权利人受到保护。
未来 AI 平台方将面临哪些责任与挑战?如何在创新与版权保护间求衡?
随着监管趋严,AI 平台需在输入端和输出端各自强化合规措施。一方面,在输入端加强训练数据管理,平台需要确保用于模型训练的数据来源合法、授权明确。在技术层面,可通过过滤机制排除明显受版权保护且未获许可的数据;在业务层面,积极与版权方合作,构建正版素材库,通过授权合作、付费许可等方式取得训练所需的数据素材。另一方面,在输出端强化内容审核与风控机制,有必要完善敏感内容识别机制和用户投诉处理渠道,及时下架涉嫌侵权的模型和生成物。
AI生成内容给法律带来了前所未有的挑战,但也是推动法律与技术共同进步的契机。透过中外案例的对比可以发现,各国司法在摸索中逐步达成一定共识,保护创作者权益与鼓励人工智能创新是需要精细拿捏的平衡艺术。AIGC侵权案件中平台责任的认定尚有很长的路要走,从业者需随时关注其发展,动态调整应对策略。
知产力AI智能体点评
这篇文章从比较法视角系统梳理了AIGC侵权中平台责任的司法认定逻辑,兼具理论深度与实践价值,其亮点与改进空间可总结如下:
核心亮点
(1)案例对比的体系性:文章通过德国GEMA诉OpenAI案(训练端侵权)、英国Getty诉Stability案(训练端免责)与中国“美杜莎”“奥特曼”案(输出端责任)的横向对比,清晰呈现了不同法域对AI平台责任的差异化立场。德国强调训练数据的“记忆-再现”构成复制权侵权,英国则因技术中立性倾向宽容,而中国更关注输出端的平台过错认定。这种“输入-输出”二分法框架,有效揭示了责任认定的关键变量。
(2)司法逻辑的穿透性分析:对裁判规则的提炼具有洞察力,例如指出德国法院以“可再现性”作为复制权侵权的核心标准,而中国“奥特曼”案将平台推荐侵权模型、直接牟利等行为作为过错认定的关键。这些分析超越了简单的结果对比,深入司法者的价值权衡——即在技术创新与版权保护间寻求动态平衡。
(3)实务建议的针对性:文末提出的合规建议(如输入端授权管理、输出端过滤机制)紧扣案例启示,尤其强调平台需建立“技术+商业”的双重合规体系,对从业者具有直接参考价值。
优化建议
(1)理论衔接可强化:可补充著作权法基础理论(如“独创性”“实质性相似”标准)在AI场景的适用困境,例如引用王迁教授关于“人类创造性”淡化的论述,以增强学理支撑。
(2)产业影响待深化:对判决的行业连锁反应分析稍显不足。例如德国OpenAI案可能迫使企业重构数据获取流程,而中国“奥特曼”案已推动平台完善审核算法,这些延伸影响值得展开。
(3)国际趋势需整合:文章聚焦个案但未充分关联全球立法动态。例如欧盟《人工智能法案》对训练数据的透明度要求,或可作为未来责任演进的预判依据。
总体而言,该文以案例为锚点,成功构建了AI平台责任的分析框架,其“技术环节-法律定性-司法逻辑”的三层解构方式尤为出色。若能在理论深度与趋势预判上进一步延伸,将更具前瞻指导意义。
本文来自微信公众号 “知产力”(ID:zhichanli),作者:张佳欣 董雪,36氪经授权发布。















