9月1日起,AI生成内容需持“身份证”,不标识或面临严格处罚
36氪·2025-09-05 07:20

新规生效与监管框架 - 国家网信办、工信部等部门联合发布的《人工智能生成合成内容标识办法》及配套国家标准于9月1日正式生效[1] - 监管责任覆盖内容生成到传播的全过程,对模型开发者提出标识要求,对社交媒体平台规定核验和添加标识义务,形成全链条责任体系[1] - 核心约束力体现在“必须标识”和“规范标识”两个层面,为国际社会提供了AI生成内容治理范例[1][7] 平台执行现状与差异 - 抖音、小红书、B站等主流视频网站已允许创作者在发布视频时于“创作声明”中主动标识AI生成内容[1] - 平台间标识明显度存在差异,B站在视频左下角和简介中均显示提示,小红书标识则较为隐蔽,需点击作者头像才能看到[2] - 对于未主动标识的AI生成内容,平台自动识别能力较弱,抖音可识别部分,而B站和小红书在测试中两条均未有效识别[1][4] 技术滥用风险与平台漏洞 - AI滥用案例屡见不鲜,例如有博主利用AI仿冒奥运冠军全红婵声音带货土鸡蛋,17条视频累计销售超4.7万件[5] - 在3·15期间测试中,带有明显AI换脸痕迹的视频均顺利上传且未被平台自动检测,即便标题明确标注“AI换脸”也未触发警示[5] - “深度伪造”内容如不加声明将面临严格处罚,平台若未履行核验和提示义务也可能被追责[7] 合规要求与违规处罚 - 违规处罚措施包括对AI生成服务提供者的警告、通报批评、责令限期改正,对未尽义务的传播平台的监管处罚,以及对恶意用户的平台处罚乃至民事、行政、刑事责任[7] - 典型违规现象为用户使用“AI换脸”或“AI声音模仿”功能制作发布名人恶搞或不实信息视频,而App开发者未添加显著标识[7] 创作者影响与行业规范化 - 平台对AI生成内容规范的收紧使创作者感知明显,行业规范化有助于防止伪造图片骗取流量等不规范行为[8] - 潜在风险在于部分甲方可能排斥带有明显AI标识的内容,从而影响创作者收益[11] - 从2022年底至今,平台管理越来越严格,AI创作正走向更加规范的未来[11] 技术门槛降低与版权问题 - 技术门槛大幅降低,技术小白可在不到一天时间内使用近百张图片在开源平台训练出专属模型,每天能生成1000张逼真图片[11][12] - AI模型训练所使用的图片素材(如大量来自小红书的图片)可能未获原作者授权,导致图片所有权归属模糊[14] - AI作品版权在法律上争议很大,《办法》要求文件元数据包含“生成合成服务提供者”、“内容制作编号”等信息,以帮助追溯源头服务平台和生成记录[17] 合规建议与责任界定 - 建议使用AI工具创作时在合理位置添加“AI生成”显著文字提示,以避免“冒充原创”嫌疑[17] - 用户必须仔细阅读用户服务协议,了解平台对生成内容版权归属、使用限制及侵权责任划分的规定[17] - 为应对潜在纠纷和监管检查,建议系统保存AI服务提供商信息、完整输入提示词、原始文件、修改记录以及用户服务协议副本[18]