AI换脸换声
搜索文档
换脸换声、版权侵权 生成式AI使用如何筑牢“防火墙”?
央视网· 2025-10-21 22:42
行业核心观点 - 中国生成式人工智能应用用户规模已达5.15亿人,行业高速普及的同时,也带来了换脸换声、版权侵权、学术滥用等日益凸显的治理挑战 [1] 用户规模与问题概述 - 中国生成式人工智能产品用户规模已达5.15亿人 [1] - 行业高速普及伴随三大主要风险:利用AI换脸换声生成虚假信息、AI大模型训练引发版权争端、学生和研究人员滥用AI于学术场景 [1] AI深度伪造(换脸换声)的风险与治理 - AI多模态能力使换脸换声及生成虚构视频变得容易,导致伪造名人推荐产品(如奥运冠军、医生)的虚假广告案件频发 [1] - 识别深度伪造视频或音频的最佳技术手段是使用AI进行鉴别,例如通过专门的深度伪造鉴别模型分析不自然的特征,如眨眼频率、面部肌肉运动一致性、音唇同步率、光源一致性等 [2][4] - 治理的核心在于全面落实内容标识制度,自2025年9月起施行的《人工智能生成合成内容标识办法》要求所有AI生成内容必须添加显式标识,并鼓励添加数字水印等隐式标识 [5] - 平台企业需从源头嵌入标识机制,为AI生成内容附加不可篡改的数字水印,并确保标识在剪辑、压缩后仍可识别 [5] - 需严格区分AI换脸技术的合法应用(如影视制作、教育教学、医疗康复)与非法滥用(如未经授权的肖像冒用、虚假信息传播)的边界,合法应用需遵循最小必要原则并获取授权 [7] AI大模型训练的版权问题与解决方案 - AI大模型训练数据绝大多数来自网络,其中包含大量受版权保护的内容(如图书、论文),而模型本身没有版权意识,会抓取所有数据进行训练 [8][9] - 解决版权争端的前提是尊重知识产权,AI开发运营者需建立全面的著作权合规机制 [11] - 具体合规措施包括:在训练数据收集阶段进行版权审核并优先获取授权、在训练过程中保留数据来源记录、在内容生成环节嵌入防抄袭检测、在输出阶段添加版权标识和水印 [11] - 主管部门需要扩充训练数据供给渠道,以化解训练数据需求与版权保护之间的冲突 [12] 生成式AI在学术领域的滥用与规范 - 学生和研究人员滥用生成式人工智能写论文、抄作业的情况正引起各界关注,对学术诚信体系构成挑战 [13] - 治理理念趋向于“堵不如疏”,核心是认可AI提升科研效率的积极价值,同时通过规范引导确保其应用不损害学术诚信 [13] - 教师应在教学活动中引导学生正确使用AI工具,将其定位从“偷懒”转变为“提升学习效率”和“辅助科研”的工具 [13] - 教育考核方式需进行调整,减少对纯文本输入的依赖,增加过程性评价比重,以评估学生的思维过程 [13]