危险!ChatGPT存在“零点击攻击”安全问题。
用户无需点击,攻击者也能从ChatGPT连接的第三方应用窃取敏感数据,甚至窃取API密钥。
一位研究软件安全问题,名为塔米尔·伊沙雅·沙尔巴特(Tamir Ishay Sharbat)的小哥发了篇文章说道。

OpenAI也意识到这种安全漏洞问题,并采取了防范措施,但是仍然抵挡不了攻击者通过其他方法恶意入侵。
也有网友指出,这是规模化的安全问题。

攻击者会在文档里注入恶意指令,就是在文档中注入一个不可见的提示注入载荷(比如,隐藏在文档中,1px白色字体),然后等待有人将其上传到ChatGPT并处理,从而AI被诱导执行攻击行为,如下图所示。
攻击风险与整体防范措施除了上面说到的攻击行为,攻击者还会用其他技巧来说服AI大模型做这些不被允许的事情,比如利用特殊字符、“讲故事”来绕过AI的安全规则,执行恶意指令。
传统的安全培训,比如培训员工不点击可疑链接或者电子钓鱼邮件,也没办法规避这种安全漏洞。
毕竟文档在内部流转,员工上传到AI帮忙解析的时候,无需点击,数据就在后台被偷偷窃取了。
如今,企业采用AI作为提升企业整体效率的方法越来越普遍。
但是AI工具存在如此严重的安全漏洞,造成企业数据全面泄漏的重大风险(比如人力资源手册、财务文件或战略计划的SharePoint站点泄露),这个问题急需解决。
更何况,这不是个例。除了ChatGPT存在这样的问题,微软的Copilot中的“EchoLeak”漏洞也发生同样的情况,更不用说针对其他AI助手的各种提示注入攻击。
于是就有安全专家提出以下防范建议,
为AI连接器权限实施严格的访问控制,遵循最小权限原则。部署专门为AI agent活动设计的监控解决方案。教育用户关于“上传来源不明的文档到AI系统”的风险。考虑网络级别的监控,以检测异常的数据访问模式。定期审计连接的服务及其权限级别。专家建议是面向企业的,对咱们AI工具用户来说,注意日常AI操作细节中存在的问题或许更有用。
有没有遇到过文档内容被误读或感觉“不对劲”的情况?
评论区聊聊大家的经历,互帮互助来避坑~
参考链接
[1]https://labs.zenity.io/p/agentflayer-chatgpt-connectors-0click-attack-5b41
[2]https://x.com/deedydas/status/1954600351098876257
[3]https://cybersecuritynews.com/chatgpt-0-click-connectors-vulnerability/
本文来自微信公众号“量子位”,作者:奕然,36氪经授权发布。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237