Workflow
ChatGPT惊现“零点击攻击”,API密钥被轻松泄露,OpenAI暂未解决
36氪·2025-08-12 10:08

安全漏洞概述 - ChatGPT存在零点击攻击安全漏洞 用户无需点击即可导致敏感数据被窃取 [1] - 攻击者可通过连接的第三方应用窃取API密钥等敏感信息 [1] - OpenAI已采取防范措施但攻击者仍能通过其他方法绕过 [3] - 该问题被指出是规模化的安全问题 [3] 攻击链形成机制 - 漏洞出现在ChatGPT连接第三方应用环节 包括Google Drive和SharePoint等 [6] - 攻击者通过向传输文档注入恶意提示实现攻击 [6] - ChatGPT在处理文档时会将敏感信息作为图片URL参数发送到攻击者服务器 [6] - 攻击链形成无需用户交互 完全通过后台自动完成 [6] 具体入侵过程 - 用户直接将文档上传至ChatGPT进行分析时触发攻击 [7] - 攻击者在文档中注入不可见的提示注入载荷 如1px白色字体隐藏内容 [10] - 恶意内部人员可污染所有可访问文档 增加攻击成功率 [12] - 数据外泄通过图像渲染功能实现 利用Markdown内容渲染机制 [13] 数据窃取技术细节 - 攻击者将泄露信息嵌入图像URL参数中 [13] - ChatGPT渲染图像时自动向攻击者服务器发送请求 [13] - API密钥窃取通过特定提示注入载荷实现 [14] - 攻击者指示ChatGPT搜索Google Drive中的API密钥 [18] - 窃取的API密钥被嵌入特定短语中通过图像请求发送 [18] - 攻击者要求ChatGPT不提及新指令以避免检测 [18] 防护措施与绕过方法 - OpenAI部署url_safe端点检查URL安全性 [19] - 客户端在渲染图像前进行恶意URL检测 [19] - 攻击者使用Azure Blob托管图像绕过检测 [21] - 利用Azure日志分析功能捕获请求参数 [21] - 通过Azure Blob存储连接实现数据窃取 [21] 行业影响与风险特征 - 传统安全培训无法防范此类漏洞 员工无需点击即可导致数据泄露 [25] - 企业采用AI工具普遍存在数据全面泄漏风险 [25] - 人力资源手册 财务文件和战略计划等敏感文档面临泄露风险 [25] - 同类漏洞存在于微软Copilot等AI助手 存在EchoLeak漏洞 [25] - 提示注入攻击已成为AI系统的普遍安全威胁 [25] 防护建议方案 - 为AI连接器权限实施严格访问控制 遵循最小权限原则 [25] - 部署专门监控AI agent活动的解决方案 [25] - 加强用户教育关于上传来源不明文档的风险 [25] - 考虑网络级别监控以检测异常数据访问模式 [27] - 定期审计连接服务及其权限级别 [27]