ChatGPT 长期以来遭受着令人沮丧的数据泄露向量的困扰,该向量可以通过提示注入攻击触发:它可以被指示构建对任何地方托管的图像的 Markdown 图像引用,这意味着成功的提示注入可以请求模型编码数据(例如base64),然后渲染一个图像,将该数据作为查询字符串的一部分传递到外部服务器。
好消息:他们终于采取措施来缓解此漏洞!
不过这个修复有点奇怪:他们并没有阻止所有从外部域加载图像的尝试,而是添加了一个额外的 API 调用,前端使用该调用来检查图像在渲染到页面上之前是否“安全”嵌入。
对我来说,这感觉像是一个半生不熟的解决方案。它在 iOS 应用程序中尚不可用,因此该应用程序仍然容易受到这些渗透攻击。合适的创造性攻击似乎仍然可以以智胜安全过滤器的方式窃取数据,例如使用隐藏在子域或文件名中的数据的巧妙组合。
通过黑客新闻