重大突破!AI首次发现内存安全漏洞
近日 ,突破谷歌宣布其大语言模型(LLM)项目“Big Sleep”成功发现了一个SQLite数据库引擎中的首次内存安全漏洞,这是发现人工智能首次在真实软件中发现可利用的内存安全漏洞(且该漏洞无法通过传统的模糊测试检测到)。

谷歌的内存“Project Naptime”项目旨在评估LLM在进攻性安全研究方面的能力 ,后来该项目演变为“Big Sleep” ,安全由谷歌Project Zero和DeepMind团队共同参与。漏洞Big Sleep项目致力于探索AI在发现软件漏洞中的突破潜力,特别关注高危漏洞的首次检测与利用 。
在上周五的高防服务器发现公告中,谷歌透露 ,内存Big Sleep项目的安全LLM代理在实验阶段成功识别出第一个真实世界中的漏洞——SQLite开源数据库引擎中的基于栈的缓冲区溢出漏洞。该漏洞在今年10月初被发现,漏洞SQLite开发团队在接到披露信息后数小时内即完成了补丁修复。突破
这一发现具有重大意义,首次因为这是发现AI首次独立检测出可利用的内存安全漏洞。
“青出于蓝”,超越模糊测试Big Sleep的工作流程模拟了人类的香港云服务器漏洞研究过程。首先,AI被要求审查SQLite代码中的最新提交记录 ,并寻找类似于已知漏洞的安全问题。作为起点 ,研究人员向LLM提供了一个最近修复的漏洞,以引导它发现新的漏洞 。通过这一策略 ,Big Sleep最终找到了一个严重的内存安全问题。
谷歌随后尝试使用传统的模糊测试来检测这一漏洞 ,亿华云耗费了150个CPU小时,仍未成功发现问题 。值得注意的是,多年来 ,谷歌的AFL模糊测试工具在发现SQLite漏洞方面非常高效 ,但如今似乎已达到“自然饱和点” ,难以再找到新的漏洞 。相比之下,Big Sleep的LLM展示了其在识别高级安全问题方面的潜力 。
AI在漏洞研究中的建站模板前景与挑战谷歌在博客中指出,当前的LLM在配备合适工具时 ,确实可以胜任某些漏洞研究任务。然而,Big Sleep团队强调 ,这一成果仍属高度实验性 ,AI的发现能力还不具备完全替代模糊测试的可靠性。尽管如此,这一突破显示出AI在安全研究中的前景,尤其是在目标特定的漏洞检测方面 ,源码下载AI可能逐渐成为重要工具。
AI在网络安全中的应用越来越广泛,尤其是软件漏洞研究。就在上周 ,威胁情报公司GreyNoise利用AI工具检测到了针对常见物联网摄像头的漏洞利用企图。与此同时,AI安全公司Protect AI也开发了一种基于LLM的静态代码分析器,能够检测并解释复杂的多步骤漏洞,这进一步证明了AI在漏洞检测和分析中的独特优势。
除了检测已知漏洞,模板下载一些研究人员还在探索LLM代理如何利用已知和未知漏洞 。AI不仅在发现安全问题上表现出色,还展现了在多步骤漏洞利用中的潜力。尽管目前这一研究仍处于初级阶段 ,但AI技术的发展为漏洞研究提供了新思路,并推动了网络安全技术的创新。
展望 :AI与模糊测试的协同未来谷歌和其他科技公司对LLM的研究表明 ,AI在漏洞检测和防御中的应用前景广阔。然而,正如谷歌所强调的,AI并非万能,它在一些特定场景下的表现可能与传统模糊测试相当甚至逊色。未来,或许AI和模糊测试的协同应用将成为网络安全研究的新趋势 ,通过融合不同技术手段,提高漏洞检测的效率和准确性。
相关文章
之前我们一直在使用由dyld及其NS Create Object File ImageFrom Memory / NS Link Module API方法所提供的Mach-O捆绑包的内存加载方式。虽然2025-12-07
AI 辅助的虚假 GitHub 仓库窃取敏感数据,包括登录凭证
近期发现了一种复杂的恶意软件活动,该活动利用人工智能创建具有欺骗性的 GitHub 仓库,并分发 SmartLoader 负载,最终部署名为 Lumma Stealer 的危险信息窃取恶意软件。该操作2025-12-07
针对潜在危险的 Windows LDAP 漏洞的利用代码已发布
SafeBreach 发布了概念验证 (PoC) 漏洞代码,针对 Windows 轻量级目录访问协议 (LDAP) 中最近解决的拒绝服务 (DoS) 漏洞。该问题被编号为 CVE-2024-491132025-12-07
80万辆大众汽车因AWS云配置错误导致数据泄露,包含“高精度”位置记录
据多家媒体近日报道,德国汽车制造商大众汽车Volkswagen AG)的云环境配置出现重大错误,导致该公司生产的数十万辆汽车的数据意外泄露,包括部分车辆的“高精度”位置记录,这些数据能够被轻易在线访问2025-12-07
两年前,一名巴西未成年人作为交换生来到美国,暂住在西弗吉尼亚州一居所内,但她却偶然发现在浴室的挂钩内竟然有一枚微型摄像头。这名受害者一举将房东威尔斯以及摄像头销售平台亚马逊告上法庭,此案在11月末进行2025-12-07
人工智能驱动的代理正在快速发展,为自动化日常任务提供了更强大的能力。然而,研究人员发现,这些工具也可能被恶意行为者利用来实施攻击。OpenAI 的“Operator”于 2025 年 1 月 23 日2025-12-07

最新评论