近日,一篇发表在arXiv上的论文揭示了一项惊人的发现:GPT-4 API存在重大安全漏洞。该漏洞由FAR AI实验室的团队发现,他们通过微调、函数调用和搜索增强等方式成功越狱了这一先进模型。
研究人员利用15个有害样本和100个良性样本进行微调,GPT-4模型便能够生成错误信息、提取私人信息和插入恶意URL。这表明API功能扩展可能带来新的安全隐患。这一发现对使用者和研究人员敲响了警钟,应谨慎对待。
此外,研究人员还发现GPT-4 Assistants模型容易暴露函数调用的格式,并能够被诱导执行任意函数调用。同时,知识检索可以通过在检索文档中注入指令来进行劫持。
该研究强调了对API提供的功能进行任何添加时,都可能暴露大量新的漏洞,即便是当前最领先的GPT-4也难以幸免。研究人员警示,在使用GPT-4 API时务必小心,避免输入任何不想让他人看到的内容。
此次发现的GPT-4 API安全漏洞再次提醒我们,随着技术的不断进步,安全问题愈发突出。在人工智能领域,如何确保模型的安全性已成为亟待解决的问题。未来,研究人员和开发人员需进一步加强技术研发和应用安全,以防止潜在的安全风险。