
该报告由欧洲议会司法、公民自由和机构事务政策部编写,聚焦生成式人工智能(GenAI)对欧盟版权法核心原则的挑战,围绕 “AI 训练数据使用(输入端)”“AI 生成内容法律地位(输出端)”“监管治理” 三大核心议题展开分析,旨在平衡创新与作者权利,避免法律不确定性与文化生态风险,核心内容如下:
原创性要求:仅保护 “作者自身的智力创作”,需体现人类创造性选择(如欧洲法院在《Infopaq》《Painer》等案中确立的标准);
专有权利优先:作者对作品的复制、传播、改编等享有独占权,例外情形需严格解释(如 “三步测试”:仅适用于特定情况、不冲突作品正常利用、不损害权利人合法利益);
平衡机制:通过《数字单一市场版权指令》(CDSM 指令)等设置例外(如文本和数据挖掘 TDM 例外),但需兼顾创新与创作者公平报酬。
生成式 AI 的技术特性(大规模摄入受版权作品、自动合成内容)与现有版权框架存在三重不匹配:
训练数据使用 vs TDM 例外:CDSM 指令第 3/4 条的 TDM 例外旨在 “提取事实 / 模式”(如科学研究分析),而生成式 AI 训练是 “内化表达特征”(如模仿作品风格、结构),超出例外设计初衷;
AI 生成内容 vs 原创性原则:完全由 AI 生成的内容缺乏人类创造性输入,不符合保护条件,但 “AI 辅助创作”(人类参与程度不一)的法律地位模糊;
权利保护 vs 技术现实:AI 训练数据规模大、来源分散,现有 “选择退出” 机制(权利人需主动保留权利)无统一技术标准,作者难以监控作品使用,且缺乏报酬补偿机制,形成 “价值差距”(AI 开发者获利,创作者无收益)。
第 3 条(科学研究 TDM):仅限非盈利机构的科学研究,权利人不可选择退出,但 AI 训练多为商业用途,且超出 “分析性使用” 范畴;
第 4 条(一般 TDM):允许所有用户(含商业主体)使用,但权利人可 “选择退出”(需机器可读形式),但存在致命缺陷:
技术碎片化:无统一 “选择退出” 标准(如 robots.txt、元数据标签不互通),作者难以执行;
定性偏差:TDM 是 “提取信息”,而 AI 训练是 “复制并内化表达”(如模型权重中嵌入作品风格、结构),本质是 “表现性重组”,而非分析;
法律不确定性:“合法访问”“适当选择退出” 等概念无统一解释,成员国实施碎片化(如德国要求机器可读退出,法国依赖服务条款)。
侵权风险:AI 训练需复制受版权作品(即使临时存储或嵌入模型参数),符合欧盟版权法 “复制权” 定义,若无法适用 TDM 例外,即构成侵权;
报酬空白:现有框架无强制补偿机制,即使 AI 模型产生商业价值,创作者也无法获得报酬,加剧 “价值差距”(如音乐、视觉艺术领域,AI 生成内容替代人类创作,挤占市场);
比较法启示:不同司法管辖区采取差异化方案(日本 “非享受原则” 允许 AI 训练、美国依赖 “合理使用”、英国拟扩大 TDM 例外),但欧盟需兼顾自身版权原则与创新需求。
该案为欧盟首起生成式 AI 版权案(Like Company 诉 Google Ireland),核心争议是 “AI 聊天机器人输出受版权新闻内容是否侵权”,报告预测法院可能:
确认 AI 训练中的复制行为触发 “复制权”,若超出 TDM 例外则构成侵权;
明确 “选择退出” 需机器可读且有效执行,否则 AI 开发者需承担责任;
强调即使训练数据合法获取,AI 输出若复制受保护内容(如新闻片段),仍可能构成 “向公众传播” 侵权。
完全 AI 生成内容:无人类创造性输入(如仅输入提示词、AI 自动生成),不满足 “原创性” 要求,归入公共领域,任何人可自由使用;
AI 辅助内容:需结合人类参与程度判断 —— 仅提供简单提示(如 “写一首关于雨的诗”)不够,需人类进行 “创造性控制”(如编辑、整合、调整表现元素),方可认定为 “人类智力创作”,获得版权保护;
排除非人类作者:与英国(允许 “计算机生成作品” 归属于 “做出必要安排者”)不同,欧盟不承认 AI 或法人为 “作者”,权利仅归属于自然人。
侵权情形:即使 AI 生成内容不受保护,若其复制或实质性相似于训练数据中的受版权作品(如再现图片水印、文本片段),仍构成侵权;
用户:若主动提示 AI 生成侵权内容(如 “模仿某画家风格创作并商用”),需承担责任;
开发者:若模型设计导致可预测的侵权输出(如记忆训练数据),可能承担间接责任(如未采取过滤措施);
执法挑战:AI 生成内容规模大、传播快,现有 “通知 - 删除” 机制(如《数字服务法》)难以适配,需技术工具(如内容溯源、侵权检测)辅助。
机构分散:版权监管涉及成员国法院、欧盟知识产权局(EUIPO)、AI 办公室等,无统一协调机构,执法效率低;
成员国差异:对 TDM 例外、“选择退出” 机制的解释与执行不一(如斯洛文尼亚要求权利人 72 小时内禁用技术保护措施,多数国家无此规定),破坏 “数字单一市场” 目标;
AI 法案局限性:AI 法案要求通用 AI 开发者披露训练数据摘要,但仅为 “程序性透明”,无审计机制,无法验证数据合法性,且不解决版权实质争议(如训练是否合法、报酬补偿)。
报告提出 “三支柱问责测试”(认知问责:透明使用;规范问责:公平分配;制度问责:有效监督),并给出具体建议:
成立专门机构:在欧盟 AI 办公室内设 “AI 与版权部门”,协调 EUIPO、集体管理组织(CMOs),负责数据集审计、合规验证、标准制定;
议会层面:在法律事务委员会(JURI)设立 “AI 与版权工作组”,监督司法进展(如 C-250/25 案),推动跨委员会对话;
短期专家组:召集 6 个月期 “高级专家组(HLEG)”,制定 “选择退出” 技术标准、数据集审计模板,为 2026 年 CDSM 指令审查提供依据。
澄清法律边界:明确 TDM 例外仅适用于 “分析性使用”,排除生成式 AI 训练;
标准化 “选择退出”:制定欧盟统一的机器可读标准(如 IPTC 元数据、C2PA 标签),建立中央注册表,方便作者监控作品使用;
恢复 “选择加入” 原则:长期转向 “默认保护”(权利人无需主动保留权利,AI 开发者需事先获得授权),短期通过 “强制披露”(AI 开发者需前置公开训练数据来源、法律依据)降低侵权风险。
法定报酬权:引入欧盟级 “不可放弃的报酬权”,AI 训练使用受版权作品需支付报酬,由行业集体管理组织(CMOs)代收分发(参考音乐、视听领域现有机制);
分级补偿模式:结合 AI 模型规模、商业价值设定费率(如按营业额、用户数计提),支持中小创作者(如无明确匹配的训练数据,按比例分配报酬);
技术辅助:依托元数据中心(如音乐领域 ICE、视听领域 Mint)实现数据匹配,确保报酬精准分配。
细化保护标准:发布指南明确 “AI 辅助内容” 的人类参与阈值(如创造性控制、编辑调整的具体要求);
侵权预防:要求 AI 开发者嵌入技术工具(如内容水印、侵权检测系统),防止生成内容复制训练数据;
责任衔接:协调《AI 法案》《数字服务法》,明确平台对 AI 生成侵权内容的 “通知 - 删除” 义务。
报告强调,欧盟版权改革的核心不是 “让法律适应 AI”,而是 “让 AI 尊重版权原则”—— 需维护人类创作者的核心地位,保障公平报酬,同时为创新预留空间。若不及时改革,欧盟将面临法律不确定性、市场集中(少数 AI 巨头垄断)、文化同质化风险。未来需通过 “短期澄清边界 + 长期制度重构”,构建 “透明、公平、可执行” 的版权框架,使生成式 AI 发展与欧盟文化多样性、创作者权利保护相协调。