Workflow
AI内容治理
icon
搜索文档
当AI有了“数字身份证”
经济观察网· 2025-09-02 01:39
《办法》在强化监管的同时,也充分考量技术发展需求以及创作自由。针对部分原创内容被误判为AI 生成的问题,《办法》引入分级处理制度:对通过隐式标识确认的AI生成内容,平台需采取更严格措 施,如下架或限制传播。同时给予疑似内容复核的机会:对标识为"疑似生成"的内容,平台需提供便捷 的用户反馈渠道,允许创作者提交证据申请复核。既避免误判打击创作积极性,又为平台提供灵活管理 空间。 《办法》提出的"显式标识"与"隐式标识"并行机制,给AI作品上了两把锁。显式标识要求在文本起始处 添加文字提示、在图片角落嵌入角标、在视频播放界面设置动态水印,确保用户肉眼可见;隐式标识则 通过文件元数据植入数字水印、服务商编码等技术手段,实现机器可读、不可篡改。这种"明暗结合"的 标识方式,既保障了公众知情权,又为执法部门提供了追踪溯源的技术抓手。 以近期引发热议的"AI图片诈骗电商退款"事件为例,不法分子利用20秒生成的虚假商品破损图,成功骗 取75%的退款申请。《办法》施行后,未来,电商平台可通过核验文件元数据中的隐式标识,快速识别 AI生成内容,阻断诈骗链条。《办法》中的重点内容之一是:明确平台责任,阻断虚假信息传播链。 这无疑对 ...
当谣言搭上“AI”的东风
36氪· 2025-06-12 09:09
AI标识制度的技术潜力与治理挑战 - AI标识制度展现出积极的技术潜力,可作为内容治理链条的重要前端支点,但仍存在技术短板需与现有治理体系协同[1] - 2024年国内AI风险舆情案例中超过1/5与AI造谣有关,2025年涉AI谣言如"西藏定日县地震"等频繁引发舆论关注[1][2] - AI合成换脸用于虚假宣传案件频发,如冒充明星带货、杜撰非遗传承人等违法牟利行为[3][4] AI生成内容放大治理难题的三大特征 - "更易":生成高度真实感内容门槛降低,中部某省村民通过AI模型批量生成热点文章获取流量收益[5] - "更多":技术实现虚假信息工业化生产,如"医疗泰斗客死他乡"谣言通过500账号矩阵日均产出1万条[2] - "更真":多模态信息增强迷惑性,如"西安市鄠邑区地下出热水"谣言因细节丰富难以辨别[6] AI标识制度的双重机制与责任体系 - 建立"显式标识+隐式标识"双重机制,显式标识降低内容可信度,隐式标识嵌入元数据实现机器识别[3] - 责任主体覆盖生成合成服务提供者、传播平台及用户全链条,生成平台需添加元数据标识,传播平台需核验标识[3] - 显式标识适用范围限定于易引起混淆误认的领域,避免过度标识导致信息过载[5] AI标识的理论效能与实践局限 - 隐式标识可将治理关口前移至生成阶段,提升识别效率应对"低门槛""大批量"挑战[4] - PNAS Nexus研究显示4976名受试者对标注"AI生成"的新闻标题信任度降低,分享意愿下降[8] - 技术存在"易规避"(开源模型水印可移除)、"易伪造"(模仿水印嵌入)、"易误判"(传统算法误判率高达100%)三大短板[9][12][13] AI标识与现有治理体系的协同路径 - 标识制度应聚焦高风险领域(谣言、虚假宣传),与举报删除、黑名单等现有措施协同[8] - 对低风险领域(B端应用、数据合成等)可探索多元治理路径,参考欧盟《人工智能法案》豁免条款[9] - 传播平台标识检测成本高于生成平台,需在责任界定中保持包容性,美国加州和欧盟法案均未强制传播平台担责[9]