文章核心观点 - 人工智能技术,特别是AI生成内容(如换脸、盗播)的滥用,正在模糊真伪界限,对以信任为基础的社会构成严峻挑战,亟需在法律、监管、平台规则等多方面重新划定创新与滥用的边界,寻找平衡之道 [1][4][16] AI生成内容标识制度的局限与挑战 - 国家《人工智能生成合成内容标识办法》已实施,要求AI生成内容必须标识,但现实中“AI李鬼”现象仍时有出现 [4] - 强制标识制度主要约束合规服务商,但难以阻挡利用境外工具或自建系统以逃避监管的“绕路者”,它解决的是“可识别的合规源头”,而非“不可追踪的灰色源头” [4] - 标识制度落地难的原因有三:AI技术特性使监管溯源难度指数级上升,不法商家可低成本快速生成并规避标识;平台监管存在技术和机制局限,多为事后处理,速度追不上AI造假;维权成本高、违法成本低,对侵权者缺乏威慑力 [4][5][6] 平台在AI治理中的责任与行动 - 平台面临责任边界的争议:是秉持被动的“避风港原则”(通知-删除),还是坚持主动的“红旗原则”(提前识别阻断) [7] - 随着AI识别技术成熟,平台若技术上能够识别筛查却未采取必要手段,可能被认定为未尽到“合理注意义务”,尤其是当平台参与算法推荐和内容分发时,责任应前置,从“避风港”走向“安全舵手” [7] - 平台方表示持续强化AI水印识别、人脸深度伪造识别模型,并进行聚类分析与算法封堵,2024年以来已累计清理涉滥用AI技术的仿冒名人视频十万余条,处置违规账号1400多个 [6] - 对于“酷似者”等灰色地带,平台以场景和意图为判断标准,重点打击具有误导性的内容(如假冒名人带货),并采用“AI审核+人工复审”机制对“虚假人设”账号进行分级处罚 [10] 法律界定与侵权认定标准 - 判断肖像权侵权的关键在于“可识别性”,而非完全复刻,只要综合特征(如五官、声纹、体态、妆造等)组合能让公众误以为是特定自然人,即可能构成侵权 [8] - 民法典的相关规定为侵权认定提供了法律依据 [8] AI治理的路径与体系构建 - AI治理应走向“包容审慎、分类分级”,对高风险应用(如无标识的名人仿冒带货)明确红线并执行显著标识、可追溯、误导禁止、跨平台联合惩戒等措施;对低风险、公益导向的创新场景则动态评估 [10] - 治理目标是“以可控换可用”,通过可验证的技术手段与可执行的制度安排,换取有益创新的自由 [11] - 当前分散的监管格局(涉及市场监管、网信、公安等部门)易产生执法空隙,需建立高效的跨部门协调机制与执法标准互认,长期则需通过更高位阶的人工智能立法明确权责与衔接规范 [12] - 地方立法(如北京、上海、深圳探索AI管理条例)可作为国家AI治理的“压力测试场”,为顶层设计积累样本,降低试错成本 [12] 协同共治与社会参与 - AI治理需要监管部门、平台、用户和社会的协同共治 [15] - 提升公众的“AI识读力”至关重要,这不仅是识别能力,更是一种理性使用AI的社会能力,有必要纳入学校教育并通过媒体持续普及 [13] - 标识制度是“他律”,公众识读力是“自律”,教育与媒体传播需同步发力,伦理机制也应发挥先导约束作用(如“AI复活逝者”需取得近亲属明示同意) [14] - 平台正探索在用户端强化“AI识别提示”,帮助公众判断,并致力于以更高标准、更精准技术切断有害信息的利益链条 [15]
当“李逵”遇上“AI李鬼”——如何在创新与规制之间寻找平衡
新浪财经·2025-11-18 00:25