国内首个大模型“体检”结果发布,这样问AI很危险
36氪·2025-09-22 23:27
近日,国内首次针对AI大模型的实网众测结果正式公布,一场大型"安全体检"透露出不容忽视的信号:本次活动累计发现安全漏洞281个,其中大模型特 有漏洞高达177个,占比超过六成,这组数据表明,AI正面临着超出传统安全范畴的新型威胁。 如今,很多人习惯把大模型当作"超级搜索引擎",事无巨细地向AI提问。但这种毫无防备的信任,很可能正悄悄推开隐私泄露的大门…… 国产大模型漏洞较少 你是否习惯把AI当作"全能顾问"——问健康、问情感、问决策?OpenAI联合杜克大学、哈佛大学9月16日发布的最新研究显示,截至今年7月,ChatGPT每 周活跃用户超7亿,发送信息量高达180亿条。其中近一半属于"询问"类,是最主流的使用方式。 "这恰恰是隐私泄露的'重灾区'。"安全专家、网络尖刀创始人曲子龙对《IT时报》记者表示,很多用户向AI咨询疾病、情感、财务等高度私密的问题,却 没有定期清理聊天记录的习惯。一旦模型或服务器被攻破,这些敏感数据极易泄露。 上述漏洞众测活动还公布了五大典型漏洞风险:一是部分产品存在不当输出类漏洞且危害严重;二是信息泄露类漏洞多发,存在较大安全隐患;三是提示 注入类漏洞普遍,是大模型最常见的漏洞风险; ...