AI平台责任
搜索文档
AI生成内容侵权,平台方要承担何种责任?——中外近期案例对比解读
36氪· 2025-11-25 12:13
文章核心观点 - 各国司法体系在处理AIGC平台侵权责任时,正逐步形成共识,即在保护创作者权益和鼓励人工智能创新之间寻求精细平衡[1][10] - AI平台的责任认定需区分数据训练(输入端)和内容生成/分发(输出端)两大环节,不同环节的法律评价标准存在差异[3][10] - 司法实践显示,对于数据训练环节的侵权认定相对谨慎从宽,而对于生成内容传播环节的侵权认定则相对从严把关[10] AIGC侵权中平台的角色与环节划分 - AIGC侵权指利用生成式AI创作的内容侵犯他人知识产权,平台在数据训练和内容生成/分发两个环节均存在潜在侵权风险[3] - 输入环节是AI模型训练阶段,平台通过收集海量数据让模型学习底层规律;输出环节是模型根据用户指令生成内容并通过平台交互、分发的阶段[3] - 不同环节的平台行为迥异,责任认定标准也会随之改变,在探讨平台方责任时需明确其具体行为环节[3] 数据训练环节的侵权认定:国际案例对比 - 德国慕尼黑法院在GEMA诉OpenAI案中认定,OpenAI的模型参数固化了歌词的可再现信息,用户通过简单提示即可再现歌词,此“记忆”行为构成德国著作权法意义上的非法复制[4] - 英国Getty Images诉Stability AI案中,法院认为模型通过参数化和特征抽象训练并未存储或再现原始图像,输出图片无法与特定作品对应,因此训练环节不被视为直接侵权[6] - 英国法院的立场体现了英美法系对AI训练利用数据的相对宽容,在缺乏明确立法规制时司法倾向谨慎认定训练环节直接侵权以免扼杀技术创新[6] 内容生成环节的平台责任:中国案例对比 - 上海“美杜莎”案中,法院认定AI绘画平台角色中立,提供技术支持且履行“通知-删除”义务,无主观过错,因此不构成帮助侵权[8] - 杭州“奥特曼”案中,法院认定平台明知或应知侵权却放任大量侵权模型存在,将知名IP模组单独归类推荐并直接牟利,存在主观过错,构成帮助侵权[9] - 中国司法强调对生成内容输出、使用等后端行为的侵权认定应当相对从严,商业化AI平台在输出端负有高度注意义务[9] AI平台未来责任与合规挑战 - 平台需在输入端加强训练数据管理,确保数据来源合法、授权明确,通过技术过滤和业务合作构建正版素材库[11] - 平台需在输出端强化内容审核与风控机制,完善敏感内容识别和用户投诉处理渠道,及时下架涉嫌侵权内容[11] - AIGC侵权案件平台责任认定尚在发展中,从业者需动态关注司法实践并调整应对策略[11]