FTC调查AI聊天机器人行业 - 美国联邦贸易委员会于2025年9月11日对七家运营AI聊天机器人的科技公司展开调查 重点关注儿童和青少年保护措施[1][2] - 被调查企业包括Alphabet、Character Technologies、Instagram、Meta、OpenAI、Snap及X.AI 这些公司均采用生成式AI技术模拟人类情感与交流[4] - 调查重点涵盖盈利模式、内容审核机制、风险缓解措施、用户信息披露及个人信息使用情况等八个核心维度[4] 监管关注的核心风险 - FTC指出高度拟人化的交互可能导致用户尤其是未成年人产生依赖和信任 引发隐私、安全及心理健康风险[4] - 调查要求企业说明如何处理用户输入生成回应 以及部署前后对负面影响的测试监控机制[4] - 重点关注企业是否通过广告和披露充分告知用户与家长相关功能及风险 以及社区准则与年龄限制执行情况[4] 行业悲剧事件推动立法进程 - 2024年美国14岁少年Sewell因沉迷Character.AI平台自杀 成为全球首例AI机器人致死案[7] - 2025年8月16岁少年亚当·雷恩在与ChatGPT讨论自杀意图后身亡 聊天记录显示机器人未启动紧急协议[7][8] - OpenAI承认保障措施在长时间互动中可能失效 承诺增加家长控制和更强烈的危机干预提醒[8] 全球监管措施升级 - 2025年9月11日加州议会通过SB 243法案 要求AI聊天机器人定期提醒未成年人休息并禁止讨论自杀/自残内容[8] - 澳大利亚2025年9月将AI伴侣纳入儿童在线安全法规 要求严格年龄验证和防止有害内容传播[9] - 意大利数据保护机构2025年5月对Replika开发公司Luka处以560万欧元罚款 因其未防止未成年人使用服务[9] 企业回应与行业影响 - OpenAI承诺确保ChatGPT安全有用并配合调查 Snap愿推动深思熟虑的AI发展 Character.AI承诺提供行业见解[5] - Meta拒绝置评 Alphabet和X.AI未回应媒体置评请求[5] - Character.AI在2024年悲剧后已增加信任与安全团队人员并上线危机干预弹窗功能[7]
美FTC调查七家AI聊天机器人公司,青少年风险引监管关注