“给 AI 讲故事”就能绕过安全机制,恶意代码编写门槛恐将大幅降低
据外媒 TechRadar 报道,Cato CTRL 威胁情报研究团队今日警告称,他们虽然缺乏恶意软件编写经验,但却已成功破解了多个大型语言模型(LLM),包括 ChatGPT-4o、DeepSeek-R1、DeepSeek-V3 等。所采用的攻击方法几乎达到了“匪夷所思”的程度。
研究小组开发了一种名为“沉浸式世界”(Immersive World)的全新攻击方式,利用“叙述式工程”技术绕过了LLM的安全防护机制。通过构建一个异常精细的虚构世界,使受限制的操作显得合理化,最终成功开发出一个“高度有效”的 Chrome 信息窃取程序。
据报道,近年来信息窃取类恶意软件蓬勃发展,已成为网络犯罪分子使用最为危险的工具之一。这种新型攻击手法表明,即使没有技术背景,网络犯罪分子也能轻易编写恶意代码。
一份报告指出,大型语言模型“彻底改变了网络安全局势”。研究表明,基于人工智能的网络威胁已经成为企业和安全团队面临的重大挑战,导致攻击方式更加复杂,频率更高,且对攻击者的技术需求更低。
尽管聊天机器人采用了多重安全防护措施,但人工智能仍旨在最大程度地满足用户需求。研究人员成功利用这一特点,绕过了限制,让人工智能轻松编写并发送网络钓鱼攻击。
Cato Networks 威胁情报研究员维塔利・西蒙诺维奇表示:“零知识威胁行为者的崛起对企业安全构成了重大威胁,因为生成式人工智能工具使得恶意软件制作变得空前简单。”
“信息窃取程序已经成为窃取企业凭证的关键工具。我们最新发现的LLM越狱技术——‘沉浸式世界’彰显了创建信息窃取程序的巨大风险和可行性。”
广告声明:文中包含的外部链接旨在传达更多信息,节省筛选时间,仅供参考。
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。