Workflow
AI一键“偷”声?人格权保护不能缺位
中国青年报·2025-08-22 08:30

AI声音克隆技术现状 - AI技术已实现"一键式"克隆特定人物声音 包括奥运冠军和知名演员的声音被用于直播带货和粉丝互动[1] - 声音克隆需"投喂"本体声音数据 通过把握内在规律生成以假乱真的高仿品[2] - 技术滥用已形成产业链 不法分子利用克隆声音结合AI换脸技术生成高度逼真数字人实施诈骗[2] 法律规制框架 - 民法典明确声音权参照肖像权保护 未经授权收集使用自然人声音进行AI处理构成侵权[1] - 2025年3月网信办发布《人工智能生成合成内容标识办法》 要求对AI生成内容添加显式标识[2] - 中央网信办部署"清朗·整治AI技术滥用"专项行动 严肃查处违法行为并压实平台监管责任[3] 行业影响范围 - 侵权对象涵盖奥运冠军 影视明星 职业配音演员及知名企业家等多类公众人物[2] - 技术滥用不仅侵犯公民个人权益 更扰乱市场经济秩序和网络生态环境[2] - 网络平台需通过技术迭代构筑防范体系 保护自然人声音权不受侵犯[3]