开源 AI/ML 模型曝出 30 余个漏洞,可能导致远程代码执行与信息窃取风险

  发布时间:2025-12-07 20:33:14   作者:玩站小弟   我要评论
根据最新消息,开源人工智能AI)和机器学习ML)模型中已披露了三十几个安全漏洞,其中一些漏洞可能导致远程代码执行和信息窃取。在 ChuanhuChatGPT、Lunary 和 LocalAI 等工具中 。

根据最新消息 ,开源开源人工智能(AI)和机器学习(ML)模型中已披露了三十几个安全漏洞 ,模型其中一些漏洞可能导致远程代码执行和信息窃取 。曝出

在 ChuanhuChatGPT 、余个远程Lunary 和 LocalAI 等工具中发现的漏洞这些漏洞已作为 Protect AI 的 Huntr 漏洞悬赏平台的一部分进行了报告  。

其中最严重的导致代码漏洞是影响大型语言模型(LLM)生产工具包 Lunary 的两个漏洞  :CVE-2024-7474 (CVE-2024-7474) 和 CVE-2024-7474(CVE-2024-7474)。

CVE-2024-7474(CVSS 得分 :9.1):一个不安全的执行直接对象引用 (IDOR) 漏洞,可允许已通过身份验证的信息用户查看或删除外部用户 ,导致未经授权的服务器租用风险数据访问和潜在的数据丢失CVE-2024-7475 (CVSS 得分:9.1) :访问控制不当漏洞 ,允许攻击者更新 SAML 配置 ,开源从而有可能以未经授权的模型用户身份登录并访问敏感信息。

在 Lunary 中还发现了另一个 IDOR 漏洞(CVE-2024-7473,曝出CVSS 得分 :7.5) ,余个远程该漏洞允许恶意行为者通过操纵用户控制参数来更新其他用户的漏洞提示。

Protect AI 在一份公告中解释道  :攻击者以用户 A 的导致代码身份登录并拦截更新提示符的请求 ,通过将请求中的id参数修改为属于用户 B 的提示符的id ,云计算攻击者可以在未经授权的情况下更新用户 B 的提示符。

第三个严重漏洞涉及 ChuanhuChatGPT 用户上传功能中的路径遍历漏洞(CVE-2024-5982 ,CVSS 得分:9.1) ,该漏洞可能导致任意代码执行 、目录创建和敏感数据暴露 。

LocalAI是一个开源项目 ,允许用户运行自托管的LLM ,该项目还发现了两个安全漏洞,可能允许恶意行为者通过上传恶意配置文件执行任意代码(CVE-2024-6983 ,CVSS评分:8.8) ,以及通过分析服务器的源码库响应时间猜测有效的API密钥(CVE-2024-7010,CVSS评分  :7.5)  。

Protect AI 表示,该漏洞允许攻击者执行定时攻击,这是一种侧信道攻击 ,通过测量处理不同 API 密钥请求所需的时间,攻击者可以逐个字符推断出正确的 API 密钥。

此外,还有一个影响 Deep Java Library(DJL)的远程代码执行漏洞,该漏洞源于软件包的 untar 函数中的建站模板任意文件覆盖漏洞(CVE-2024-8396,CVSS 得分 :7.8) 。

该漏洞可能会导致代码执行和数据篡改 。英伟达在发布补丁修复其NeMo生成式人工智能框架中的路径遍历漏洞(CVE-2024-0129  ,CVSS评分:6.3)的同时 ,也披露了这一漏洞 。建议用户将其安装更新到最新版本 ,以确保其 AI/ML 供应链的安全并防范潜在攻击 。

漏洞披露之前 ,Protect AI 还发布了开源 Python 静态代码分析器 Vulnhuntr,该分析器可利用 LLM 在 Python 代码库中查找零日漏洞 。

Vulnhuntr 的工作原理是源码下载在不影响 LLM 上下文窗口(LLM 在单个聊天请求中可解析的信息量)的情况下,将代码分解成小块  ,从而标记出潜在的安全问题 。

Dan McInerney 和 Marcello Salvati 说 :它会自动在项目文件中搜索可能最先处理用户输入的文件 。然后 ,它会摄取整个文件,并回复所有潜在漏洞。

利用这份潜在漏洞清单,它将继续完成从用户输入到服务器输出的整个函数调用链 ,对整个项目中的每个潜在漏洞逐个函数/类进行分析 ,免费模板直到它对整个调用链感到满意,才能进行最终分析  。

撇开人工智能框架的安全漏洞不谈,Mozilla 的 0Day 调查网络(0Din)发布的一项新越狱技术发现 ,以十六进制格式和表情符号编码的恶意提示可用于绕过 OpenAI ChatGPT 的防护措施,并对已知的安全漏洞精心设计漏洞利用 。

安全研究员马尔科-菲格罗亚(Marco Figueroa)说 :越狱策略利用了语言漏洞,指示模型处理一项看似无害的任务:十六进制转换 。由于该模型经过优化,可以遵循自然语言的指令,包括执行编码或解码任务 ,因此它本质上并没有意识到转换十六进制值可能会产生有害输出。

出现这一漏洞的原因是,语言模型被设计为按部就班地执行指令,但缺乏深入的上下文意识,无法在其最终目标的大背景下评估每个单独步骤的安全性。

  • Tag:

相关文章

  • 网络犯罪分子利用 StackOverflow 推广恶意 Python 软件包

    近日,有网络安全研究人员警告称,在Python 软件包索引PyPI)库中发现了一个新的恶意 Python 软件包,该软件包为黑客盗取加密货币提供了便利。该恶意软件包名为 pytoileur,截至发稿前
    2025-12-07
  • 超隐形后门HTTPSnoop 正攻击中东电信公司

    据The Hacker News消息,Cisco Talos分享的一份报告显示,中东的电信服务提供商最近沦为ShroudedSnooper网络威胁组织的目标,并被部署了名为 HTTPSnoop 的隐形
    2025-12-07
  • 云安全人工智能的优秀实践和实施

    考虑云服务的企业最关心的问题是安全性。许多企业认为在他们不直接控制的基础设施上存储数据或运行应用的概念本质上是不安全的,以及通过开放互联网往返于这些服务的数据传输的威胁。据数据统计,数据丢失和泄露(6
    2025-12-07
  • 数据泄露时代零信任云安全的重要性

    零信任架构通过提供细粒度、离散和动态的数据安全方法,有可能显著增强网络、系统和设备的安全性。随着企业优先投资云和混合工作模型,与数据、设备和用户相关的漏洞问题不断增加。仅在2022年,勒索软件攻击就增
    2025-12-07
  • 利用MOVEit 漏洞,Clop 勒索软件赎金收入将达上亿美元

    据BleepingComputer 7月21日消息,随着近期Clop 勒索软件组织利用 MOVEit Transfer 文件传输工具漏洞进行大规模攻击,Coveware发布报告称,Clop将从中获得7
    2025-12-07
  • ChatGPT与数字信任:引领信息安全的未来

    在当今快速发展的数字环境中,人工智能毫无疑问将会重塑我们的世界,问题是如何重塑?从新手到经验丰富的高管都在努力应对这一重大转变,在努力挖掘人工智能的潜力的同时降低相关风险。OpenAI的ChatGPT
    2025-12-07

最新评论