Workflow
鱼叉式网络钓鱼
icon
搜索文档
偷走全红婵声音,在网上卖鸡蛋?你看的明星带货直播,可能是AI偷来的……
36氪· 2025-09-11 00:05
AI语音克隆技术应用现状 - AI配音技术已广泛集成于短视频和AI平台,用户可通过录制一小段声音即可实现一键式声音和语气克隆[1] 名人声音盗用案例 - 奥运冠军全红婵的声音被AI克隆用于销售鸡蛋,视频声称帮助母亲改善生活并分享土鸡蛋,商品购买次数高达47,000次[3][5][6] - 类似案例涉及奥运冠军孙颖莎、王楚钦等被AI盗声带货,但未参与任何代言授权[6] - 小米创始人雷军曾遭AI仿冒恶搞,其语音包被用于发布不实言论,本人公开呼吁停止使用[8] - 2024年美国出现乔·拜登克隆声音致电选民,误导其避免在总统初选中投票[8] 语音诈骗风险与影响 - 普通人的声音可被用于诱导亲友汇款或泄露敏感信息,形成针对性诈骗[10] - McAfee研究显示70%人群无法区分克隆与真实声音,7.7%受访者曾因AI语音诈骗蒙受经济损失[10] - 损失金额分布中36%受害者损失500至3,000美元,7%损失5,000至15,000美元[10] - 45%诈骗通过假冒家人或朋友语音实施,常见场景包括车祸(48%)、抢劫(47%)、丢失物品(43%)及旅行意外(41%)[10] 技术实现门槛与数据获取途径 - 仅需3秒音频即可生成匹配度达85%的克隆语音,增加训练数据后匹配度可提升至95%[16] - AI软件可模拟人声呼吸声、环境音等细节,增强欺骗性[16] - 声音盗取渠道包括社交媒体已发布视频、软件用户协议中的隐性授权、以及以兼职配音为幌子的试音骗局[16][19] 监管与法律保护进展 - 中国《民法典》将声音权纳入法律保护范围,禁止非法模仿[21] - 2024年北京互联网法院判决首例AI声音侵权案,要求两家公司向配音演员支付25万元人民币赔偿[21] - 2025年9月实施的《人工智能生成合成内容标识办法》强制要求对AI生成内容添加显式标识[21]