近日,在人工智能领域掀起轩然大波的GPT-4大型语言模型再次刷新了人们的认知。伊利诺伊大学厄巴纳-香槟分校的四位计算机科学家最新研究发现,GPT-4不仅能够理解人类语言,还能通过阅读安全公告成功利用现实世界中的安全漏洞。
据研究团队介绍,他们收集了15个单日漏洞的数据集,这些漏洞在CVE描述中被归类为严重程度。令人震惊的是,当给出CVE描述时,GPT-4能够利用其中高达87%的漏洞。相比之下,其他测试的大型语言模型和开源漏洞扫描器的利用率均为零。
研究人员表示,GPT-4在利用漏洞方面的表现超出了他们的预期。它不仅能够理解漏洞的描述,还能自主执行一系列复杂的步骤来实施攻击。这种能力使得GPT-4在网络安全领域具有巨大的潜力,同时也引发了对其潜在风险的担忧。
值得注意的是,GPT-4并非无所不能。在测试的15个样本中,有两个漏洞未能被成功利用。其中一个是因为Iris网络应用的界面对于代理来说过于复杂,难以浏览;另一个则是因为漏洞说明使用了中文,而GPT-4是在英文环境下运行的,这可能对其理解造成了困扰。
尽管存在这些限制,但GPT-4在网络安全领域的表现仍然令人瞩目。它展示了人工智能在自动化攻击和漏洞利用方面的巨大潜力,也为黑客提供了新的攻击手段。这引发了人们对于如何平衡人工智能的发展和网络安全的担忧。
针对这一发现,业界专家呼吁加强对于人工智能在网络安全领域的监管和研究。他们建议采取积极主动的安全措施,如定期更新软件包和加强安全漏洞的修复工作,以应对潜在的安全风险。
同时,研究人员也表示,他们将继续探索人工智能在网络安全领域的应用和潜力,并寻求更加有效的防御措施来应对潜在的安全威胁。
GPT-4的这一发现不仅为我们揭示了人工智能在安全领域的巨大潜力,也为我们敲响了警钟,提醒我们在享受人工智能带来的便利的同时,也要警惕其可能带来的安全风险。未来,随着人工智能技术的不断发展和完善,我们有理由相信,人类将能够更好地应对这些挑战,实现更加安全、智能的网络环境。