零点击攻击

搜索文档
ChatGPT惊现“零点击攻击”,API密钥被轻松泄露,OpenAI暂未解决
36氪· 2025-08-12 10:08
安全漏洞概述 - ChatGPT存在零点击攻击安全漏洞 用户无需点击即可导致敏感数据被窃取 [1] - 攻击者可通过连接的第三方应用窃取API密钥等敏感信息 [1] - OpenAI已采取防范措施但攻击者仍能通过其他方法绕过 [3] - 该问题被指出是规模化的安全问题 [3] 攻击链形成机制 - 漏洞出现在ChatGPT连接第三方应用环节 包括Google Drive和SharePoint等 [6] - 攻击者通过向传输文档注入恶意提示实现攻击 [6] - ChatGPT在处理文档时会将敏感信息作为图片URL参数发送到攻击者服务器 [6] - 攻击链形成无需用户交互 完全通过后台自动完成 [6] 具体入侵过程 - 用户直接将文档上传至ChatGPT进行分析时触发攻击 [7] - 攻击者在文档中注入不可见的提示注入载荷 如1px白色字体隐藏内容 [10] - 恶意内部人员可污染所有可访问文档 增加攻击成功率 [12] - 数据外泄通过图像渲染功能实现 利用Markdown内容渲染机制 [13] 数据窃取技术细节 - 攻击者将泄露信息嵌入图像URL参数中 [13] - ChatGPT渲染图像时自动向攻击者服务器发送请求 [13] - API密钥窃取通过特定提示注入载荷实现 [14] - 攻击者指示ChatGPT搜索Google Drive中的API密钥 [18] - 窃取的API密钥被嵌入特定短语中通过图像请求发送 [18] - 攻击者要求ChatGPT不提及新指令以避免检测 [18] 防护措施与绕过方法 - OpenAI部署url_safe端点检查URL安全性 [19] - 客户端在渲染图像前进行恶意URL检测 [19] - 攻击者使用Azure Blob托管图像绕过检测 [21] - 利用Azure日志分析功能捕获请求参数 [21] - 通过Azure Blob存储连接实现数据窃取 [21] 行业影响与风险特征 - 传统安全培训无法防范此类漏洞 员工无需点击即可导致数据泄露 [25] - 企业采用AI工具普遍存在数据全面泄漏风险 [25] - 人力资源手册 财务文件和战略计划等敏感文档面临泄露风险 [25] - 同类漏洞存在于微软Copilot等AI助手 存在EchoLeak漏洞 [25] - 提示注入攻击已成为AI系统的普遍安全威胁 [25] 防护建议方案 - 为AI连接器权限实施严格访问控制 遵循最小权限原则 [25] - 部署专门监控AI agent活动的解决方案 [25] - 加强用户教育关于上传来源不明文档的风险 [25] - 考虑网络级别监控以检测异常数据访问模式 [27] - 定期审计连接服务及其权限级别 [27]
ChatGPT惊现“零点击攻击”,API密钥被轻松泄露,OpenAI暂未解决
量子位· 2025-08-12 09:35
ChatGPT安全漏洞分析 核心观点 - ChatGPT存在"零点击攻击"安全漏洞 攻击者无需用户点击即可通过第三方应用窃取敏感数据和API密钥[1][2] - OpenAI已采取防范措施但攻击者仍能通过技术手段绕过[5][36] - 该漏洞属于规模化安全问题 可能造成企业数据全面泄漏[6][46] 攻击链形成机制 - 漏洞出现在ChatGPT连接第三方应用(如Google Drive SharePoint)环节 攻击者在文档中注入恶意提示诱导AI执行攻击行为[9][14] - 内部风险场景:恶意员工可污染所有可访问文档并诱导其他员工上传至ChatGPT[16][17] - 攻击成功率提升关键:通过"间接提示注入"增加恶意指令进入ChatGPT的概率[18] 数据窃取技术路径 - 出口机制:利用图像渲染功能 将窃取数据嵌入图像URL参数中[20][23] - 具体操作:ChatGPT返回Markdown内容时自动渲染图像 触发向攻击者服务器发送含敏感数据的请求[22][24] - API密钥窃取:通过特定提示注入载荷指示ChatGPT搜索Google Drive中的密钥并嵌入图像请求[26][30] 防御与绕过机制 - OpenAI防御措施:客户端渲染前检查URL安全性 拦截随机beeceptor端点[33][35] - 攻击者绕过方法:利用Azure Blob存储托管图像 通过日志分析获取请求参数[37][38] - 其他攻击技巧:使用特殊字符和"讲故事"方式绕过AI安全规则[43] 企业级风险与建议 - 风险特征:传统安全培训无法防范 文档内部流转时即可发生数据泄露[44][45] - 行业影响:微软Copilot存在类似"EchoLeak"漏洞 多款AI助手面临提示注入攻击风险[46] - 防护建议:实施严格访问控制 部署AI活动监控方案 加强用户教育[48]
ChatGPT 连接器被曝漏洞:无需用户操作即可窃取敏感数据
环球网资讯· 2025-08-07 08:10
安全漏洞披露 - 安全研究人员披露OpenAI旗下Connectors存在安全漏洞 可被攻击者利用通过间接提示注入攻击从Google Drive账户提取敏感信息 [1] - 该漏洞属于"零点击"攻击类型 攻击者仅需获取用户电子邮件并共享文档即可完成操作 但每次只能提取有限数据 无法移除完整文档 [3] 产品功能与影响范围 - Connectors是OpenAI为ChatGPT推出的测试功能 支持用户"将其工具和数据带入ChatGPT" 实现"在聊天中搜索文件、拉取实时数据、引用内容"等操作 [3] - 目前Connectors可关联的服务至少有17种 [3] 公司应对措施 - 研究人员已于今年早些时候向OpenAI报告相关发现 OpenAI迅速采取行动引入缓解措施防范通过该连接器提取数据的技术手段 [3] - 截至目前OpenAI尚未就该漏洞相关问题作出公开回应 [3]