15款大模型透明度测评:两款允许用户撤回数据不投喂AI
南方都市报·2025-12-19 01:28

报告核心观点 - 南都数字经济治理研究中心发布《生成式AI落地应用:透明度测评与案例分析报告(2025)》,对15款国产大模型进行透明度测评,发现行业在训练数据来源、用户赋权等方面仍有明显提升空间,呼吁持续增强大模型服务透明度[1][2] 测评概况与整体发现 - 测评选取DeepSeek、腾讯元宝、豆包、千问等15款知名国产大模型,重点关注数据来源及处理、知识产权保护、内容安全、交互设计四大维度,共10个具体测评项,满分为50分[3] - 测评发现,15款大模型在AI生成内容标识、生成内容的参考来源或出处方面做得较好,但在模型训练数据来源、用户赋权等领域还有明显提升空间[2] - 与2024年测评结果相比,2025年各家大模型在协议层面的规定更加明确和详细,AI生成内容添加显著标识已成为各家标配,行业均分高出1分,涨幅较为明显[9][10] 训练数据来源透明度 - 在15款被测大模型中,仅有DeepSeek明确提及训练数据的大致来源,其他大模型在此方面仍相当不透明[1][3] - DeepSeek披露其模型预训练阶段主要使用两大类数据:互联网上公开可用的信息,以及公司与第三方合作获取的信息[3] - 对比国外,Anthropic也会披露从第三方来源获取个人数据训练Claude,但和DeepSeek一样均未披露训练数据时间范围、第三方合作具体情况、是否包含受版权保护内容、涉及哪些个人信息或敏感数据及其处理措施等更多信息[4] 用户数据控制与选择权 - 绝大多数AI大模型应用要求用户授予一项免费使用权,以在法律允许范围内将用户输入输出内容和反馈用于模型训练与优化[5] - 15款大模型都在隐私政策中提到用户可更改个人信息授权范围或注销账号,但同时强调撤回同意不影响此前基于授权已开展的个人信息处理[5] - 有5款大模型应用(可灵AI、智谱清言、百小应、千问、豆包)提及,如果用户不希望输入内容用于模型优化,可发送邮件到指定邮箱通知平台撤销授权,但有大模型应用指出,因训练数据通常已被嵌入模型参数,技术上无法真正“擦除”[5] - 千问和豆包两款大模型还允许用户撤回声纹信息,用户可通过关闭账号设置里的“改进语音服务”来撤回授权[5] - 腾讯元宝、DeepSeek表现更优,在产品内提供具体的“退出”开关,用户可通过关闭“数据用于优化体验”来选择退出,关闭后用户的输入和输出内容不会再用于模型训练[1][6] - 在海外,谷歌旗下Gemini允许用户选择是否开启活动记录,关闭后对话不会显示在活动记录中,也不会被用于训练AI模型,甚至允许用户调整“自动删除”数据的期限(3个月或36个月)[7] - OpenAI推出了“隐私门户”,用户可在账户设置中行使多项隐私权和选择权,包括更正或更新个人信息、访问信息、删除单个或所有对话、删除账户、反对使用用户内容帮助训练模型等[7] - 报告认为,赋予用户更多选择权是一种友好设计表现,但目前国产大模型在此方面进展相对缓慢,建议强化用户赋权并借鉴国外优秀设计[8] 内容标识与来源追溯 - 所有被测大模型应用都增加了对AI生成标识的说明,主动告知模型局限性,强调不保证AI生成内容的真实性和准确性,仅供用户参考[9] - 除两款视频生成应用外,其余13款大模型在内容生成页面以易于理解的方式披露了参考来源,今年披露得比去年更规范和详细,堪称“图文并茂”[11] 交互设计与特殊群体保护 - 针对未成年人特殊群体,一些国产大模型推出了专门设计,例如专注AI陪伴的智能体应用星野在App端特设了未成年人模式,开启后每日22点至次日6点将无法使用App,且相关功能将关闭[12] - 为避免用户过度使用聊天机器人,OpenAI推出了聊天休息提醒功能,当用户进行长时间对话时,ChatGPT会弹出提示询问是否需要休息[13] - 但国产大模型在核心的问答交互服务中,普遍没有像ChatGPT那样主动提供“长时间使用休息提示”功能[13] 行业建议与未来方向 - 报告呼吁持续增强大模型服务的透明度,这对确保技术公平性、避免偏见以及满足法律合规要求至关重要[2] - 建议服务提供者应通过负责任的、阶段性的披露来保证其服务的透明度,并承担部分教育、解释责任,例如建立线上平台促进公众与专家交流,解答关于生成式AI的疑问,提升参与者的理解和认知深度[13]