GPT-4 API重大安全漏洞曝光:FAR AI实验室成功越狱模型


GPT-4 API重大安全漏洞曝光:FAR AI实验室成功越狱模型

近日,一篇发表在arXiv上的论文揭示了一项惊人的发现:GPT-4 API存在重大安全漏洞。该漏洞由FAR AI实验室的团队发现,他们通过微调、函数调用和搜索增强等方式成功越狱了这一先进模型。

研究人员利用15个有害样本和100个良性样本进行微调,GPT-4模型便能够生成错误信息、提取私人信息和插入恶意URL。这表明API功能扩展可能带来新的安全隐患。这一发现对使用者和研究人员敲响了警钟,应谨慎对待。

此外,研究人员还发现GPT-4 Assistants模型容易暴露函数调用的格式,并能够被诱导执行任意函数调用。同时,知识检索可以通过在检索文档中注入指令来进行劫持。

该研究强调了对API提供的功能进行任何添加时,都可能暴露大量新的漏洞,即便是当前最领先的GPT-4也难以幸免。研究人员警示,在使用GPT-4 API时务必小心,避免输入任何不想让他人看到的内容。

此次发现的GPT-4 API安全漏洞再次提醒我们,随着技术的不断进步,安全问题愈发突出。在人工智能领域,如何确保模型的安全性已成为亟待解决的问题。未来,研究人员和开发人员需进一步加强技术研发和应用安全,以防止潜在的安全风险。

文章来源于互联网:科技讯-GPT-4 API重大安全漏洞曝光:FAR AI实验室成功越狱模型

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注