Workflow
AI技术治理
icon
搜索文档
换脸拟声等AI技术被滥用,平台如何发力“精准识别”?
环球网资讯· 2025-07-21 08:42
文章核心观点 - 中央网信办自2025年4月启动“清朗·整治AI技术滥用”专项行动,第一阶段已处置违规AI产品3500余款、清理违法违规信息96万余条、处置账号3700余个 [2] - 专家指出当前AI技术滥用治理面临技术迭代快、内容隐蔽性强、责任主体碎片化、治理标准缺位等难点 [2][3][4] - 平台企业需通过提升多模态检测技术、建立分层审核机制、强化内容标识与内部合规来构建长效治理机制 [5][6] - 精准治理需政府、平台、社会多元协同,包括加强源头监管、研发反制工具、健全举报机制及提升公众数字素养 [6][7][8] 当前AI技术滥用治理难点 - AI滥用手段进化速度超过检测技术,深度伪造已升级至动态表情和光影细节模拟,并可绕过现有检测工具 [2] - 滥用内容隐蔽性强,如真实视频中替换几秒对话或新闻中夹杂AI生成文字,传统批量扫描技术难以识别局部篡改 [3] - 各平台监测标准与处置流程不统一,难以形成全链条拦截 [4] - 责任主体碎片化,从训练数据收集到终端使用的长链条导致取证困难、归责复杂 [4] - 治理标准缺位,现行部门规章罚则偏软,对境外开源模型缺乏有效管辖手段 [4] 平台企业治理能力提升路径 - 提升多模态AI检测能力,结合声纹、语义、画面匹配度快速识别违规AI内容 [5] - 建立“AI+人工”分层审核机制,AI初步筛选高风险内容后推送人工复审 [5] - 推进内容标识制度,强制用户显性标识AI内容,并采用隐式数字水印追踪源头 [5][6] - 加强内部合规管理,建立跨部门团队、畅通投诉渠道、定期开展合规评估 [6] - 严格数据输入筛查、嵌入算法审计模块、部署内容溯源技术,构建全流程监测机制 [6] 多元协同治理建议 - 推动监管前移,加强对AIGC模型训练数据、技术提供者资质及输出能力的源头审查 [6] - 强化技术反制能力,研发深度伪造检测工具并开放公共检测接口 [7] - 健全快速举报与处置机制,提升执法协同效率 [7] - 加强AI伦理教育与公众科普,培养开发者责任意识及用户防范能力 [7][8] - 监管部门需完善法律法规,建立常态化检测机制,并通过典型案例提升全民数字素养 [8]