
行业监管动态 - 中国四部门联合发布《人工智能生成合成内容标识办法》于9月1日正式实施 要求所有AI生成内容需明确标识 涵盖文本、图片、音频、视频及虚拟场景 [7] - 政策要求AIGC技术服务者添加隐性标识 平台需提供显性标识(如"作品含AI内容") 用户不得删除或篡改标识 [7] - 全球范围内类似监管措施有限 韩国与西班牙于2024年初推出AI标识法规 欧盟《人工智能法案》分级监管要求预计2026年生效 美国联邦层面无强制性法规 仅部分州(如加州)有要求 [32] 企业合规行动 - DeepSeek于9月1日公告对AI生成内容添加标识 腾讯元包、字节豆包、阿里通义、Kimi、智谱清言等厂商于8月底更新用户协议 履行AI标识义务 [2][4] - B站、抖音、快手等互联网平台上线AI声明功能 支持用户主动标识AI内容 同时辅以平台自动识别打标 [8] 市场影响与挑战 - AI生成内容泛滥导致虚假信息问题加剧 例如马来西亚老人因AI视频驱车4.5小时前往不存在景点 中国工程院院士张伯礼遭AI伪造代言需公开辟谣 [14][15] - YouTube平台AI短视频泛滥 儿童频道为重灾区 部分账号通过重复上传AI视频赚取流量激励 有创作者5天内通过AI内容获利5000美元 [33][35] - 人类创作者收入为AI创作者的46倍 但AI内容增速迅猛 创作者经济规模预计从2022年164亿美元增长至2025年250亿美元(增幅52%) 虚拟创作市场2030年预计达378亿美元 [44] 技术识别困境 - AI内容真实性难以辨别 如"袋鼠登机"视频因无显著技术瑕疵获百万点赞 用户难以区分真伪 [28][30] - YouTube平台被指控擅自对真人视频进行AI增强处理 导致画面呈现过度锐化、平滑感等异常 引发创作者信任危机 [38][40]