被AI换脸有哪些风险?如何防范?警方教您分辨
央视新闻·2025-10-29 17:17
AI技术滥用案例 - 辽宁沈阳发生利用AI技术合成他人不雅视频并进行恶意传播的案件,受害者王女士的面部被合成到裸体女性身体上并配有侮辱性文字[1][2] - 案件起因是发布者刘某与王女士因在理发店试工期间的工资问题产生分歧,刘某为报复而制作并传播恶意视频[5] - 涉案人员刘某最终因触犯《中华人民共和国治安管理处罚法》被处以行政拘留十日并罚款500元[6] AI换脸诈骗活动 - 上海警方于今年五月破获一起利用AI生成虚假网恋女友进行诈骗的案件,涉案金额达200余万元[7] - 2024年内蒙古鄂尔多斯一名消费者遭遇AI换脸诈骗,诈骗者通过视频通话冒充其朋友,以资金周转为由诱骗转账40余万元,因警方及时介入未造成实际损失[7] - 同年安徽一名消费者遭遇相同套路的AI换脸诈骗,损失金额达六十余万元[7] AI换脸技术特性与识别 - 实现AI换脸的技术门槛极低,仅需一张照片,不到十秒即可合成一张换脸图片[10] - AI换脸视频存在可识别的破绽,例如在直播中转头时侧脸会变虚,上下左右晃动头部会出现虚影[14] - 防范建议包括在视频通话时要求对方上下左右晃动头部,或使用方言对话,因为AI难以同时完美模仿容貌和声音[14] 个人防护与执法警示 - 警方提示消费者应注意保护个人隐私,不随意上传包含个人信息、联系方式、位置及工作地点的图片和视频[15] - 网络并非法外之地,任何利用AI技术从事的违法行为都将留痕并受到处罚[14]