开源 AI/ML 模型曝出 30 余个漏洞,可能导致远程代码执行与信息窃取风险

  发布时间:2025-12-07 19:46:10   作者:玩站小弟   我要评论
根据最新消息,开源人工智能AI)和机器学习ML)模型中已披露了三十几个安全漏洞,其中一些漏洞可能导致远程代码执行和信息窃取。在 ChuanhuChatGPT、Lunary 和 LocalAI 等工具中 。

根据最新消息,开源开源人工智能(AI)和机器学习(ML)模型中已披露了三十几个安全漏洞,模型其中一些漏洞可能导致远程代码执行和信息窃取 。曝出

在 ChuanhuChatGPT 、余个远程Lunary 和 LocalAI 等工具中发现的漏洞这些漏洞已作为 Protect AI 的 Huntr 漏洞悬赏平台的一部分进行了报告 。

其中最严重的导致代码漏洞是影响大型语言模型(LLM)生产工具包 Lunary 的两个漏洞:CVE-2024-7474 (CVE-2024-7474) 和 CVE-2024-7474(CVE-2024-7474) 。

CVE-2024-7474(CVSS 得分:9.1):一个不安全的执行直接对象引用 (IDOR) 漏洞 ,可允许已通过身份验证的信息用户查看或删除外部用户 ,导致未经授权的免费模板风险数据访问和潜在的数据丢失CVE-2024-7475 (CVSS 得分 :9.1):访问控制不当漏洞 ,允许攻击者更新 SAML 配置 ,开源从而有可能以未经授权的模型用户身份登录并访问敏感信息。

在 Lunary 中还发现了另一个 IDOR 漏洞(CVE-2024-7473,曝出CVSS 得分:7.5),余个远程该漏洞允许恶意行为者通过操纵用户控制参数来更新其他用户的漏洞提示。

Protect AI 在一份公告中解释道 :攻击者以用户 A 的导致代码身份登录并拦截更新提示符的请求 ,通过将请求中的id参数修改为属于用户 B 的提示符的id ,源码下载攻击者可以在未经授权的情况下更新用户 B 的提示符  。

第三个严重漏洞涉及 ChuanhuChatGPT 用户上传功能中的路径遍历漏洞(CVE-2024-5982 ,CVSS 得分:9.1),该漏洞可能导致任意代码执行、目录创建和敏感数据暴露 。

LocalAI是一个开源项目  ,允许用户运行自托管的LLM  ,该项目还发现了两个安全漏洞,可能允许恶意行为者通过上传恶意配置文件执行任意代码(CVE-2024-6983 ,CVSS评分 :8.8),以及通过分析服务器的源码库响应时间猜测有效的API密钥(CVE-2024-7010 ,CVSS评分 :7.5)。

Protect AI 表示,该漏洞允许攻击者执行定时攻击,这是一种侧信道攻击,通过测量处理不同 API 密钥请求所需的时间 ,攻击者可以逐个字符推断出正确的 API 密钥 。

此外,还有一个影响 Deep Java Library(DJL)的远程代码执行漏洞 ,该漏洞源于软件包的 untar 函数中的建站模板任意文件覆盖漏洞(CVE-2024-8396,CVSS 得分:7.8)。

该漏洞可能会导致代码执行和数据篡改 。英伟达在发布补丁修复其NeMo生成式人工智能框架中的路径遍历漏洞(CVE-2024-0129 ,CVSS评分 :6.3)的同时 ,也披露了这一漏洞 。建议用户将其安装更新到最新版本 ,以确保其 AI/ML 供应链的安全并防范潜在攻击。

漏洞披露之前,Protect AI 还发布了开源 Python 静态代码分析器 Vulnhuntr ,该分析器可利用 LLM 在 Python 代码库中查找零日漏洞 。

Vulnhuntr 的工作原理是高防服务器在不影响 LLM 上下文窗口(LLM 在单个聊天请求中可解析的信息量)的情况下,将代码分解成小块 ,从而标记出潜在的安全问题 。

Dan McInerney 和 Marcello Salvati 说:它会自动在项目文件中搜索可能最先处理用户输入的文件。然后 ,它会摄取整个文件 ,并回复所有潜在漏洞。

利用这份潜在漏洞清单,它将继续完成从用户输入到服务器输出的整个函数调用链,对整个项目中的每个潜在漏洞逐个函数/类进行分析,模板下载直到它对整个调用链感到满意,才能进行最终分析。

撇开人工智能框架的安全漏洞不谈,Mozilla 的 0Day 调查网络(0Din)发布的一项新越狱技术发现 ,以十六进制格式和表情符号编码的恶意提示可用于绕过 OpenAI ChatGPT 的防护措施,并对已知的安全漏洞精心设计漏洞利用。

安全研究员马尔科-菲格罗亚(Marco Figueroa)说:越狱策略利用了语言漏洞,指示模型处理一项看似无害的任务 :十六进制转换 。由于该模型经过优化,可以遵循自然语言的指令 ,包括执行编码或解码任务,因此它本质上并没有意识到转换十六进制值可能会产生有害输出 。

出现这一漏洞的原因是,语言模型被设计为按部就班地执行指令 ,但缺乏深入的上下文意识 ,无法在其最终目标的大背景下评估每个单独步骤的安全性  。

  • Tag:

相关文章

  • 数据安全:如何衡量数据治理成熟度模型?

    ​数据治理成熟度模型是一种工具和方法,用于衡量组织的数据治理计划并将其简单地传达给整个组织。介绍在一个组织中数据治理协议不存在,数据质量无法保证。当数据是非结构化的并且对其进行的更改未记录在案时,其质
    2025-12-07
  • 数据中心的七个关键特征

    随着信息技术的不断演进,数据中心的可靠性、可扩展性、高效性、安全性、灵活性、管理性和可持续性成为业界探讨的焦点。下面让我们一同深入剖析这些关键特征,了解它们是如何影响数据中心的建设和运营,塑造着一个信
    2025-12-07
  • 利用智能电缆密封件增强数据中心的安全性

    对大量计算机数据的远程存储、处理和分发的需求持续快速增长。随着全球数据中心规模的发展,管理基本风险一直是一项挑战。无论一个组织是建立自己的尖端数据大厅还是设计数据中心来容纳客户的计算机,都必须应对众多
    2025-12-07
  • 数据中心基础设施管理的八个发展趋势

    在信息科技的高速发展下,数据中心基础设施管理正经历着一场革命性的变革,不断迎接新时代的挑战。那么作为数据中心管理者在新时代需具备新的应对策略和眼界。自动化和智能化管理:随着数字化时代的不断深入,数据中
    2025-12-07
  • 2024攻防演练:4大趋势凸显,如何做好常态化安全防御?

    近年来,全国性攻防演练逐渐常规化。攻防演练不仅是对各企事业单位网络安全能力的大考,更是透视未来安全趋势、升级防御策略的绝佳窗口。在技术升级与威胁演变的双重驱动下,2024年的攻防演练呈现出哪些新趋势和
    2025-12-07
  • 速度比现有芯片快22倍,IBM推出AI芯片NorthPole

    10月25日消息,据外媒报道,IBM研究院的一个庞大的计算机科学家和工程师团队开发了一种专用的计算机芯片,能够运行基于人工智能的图像识别应用程序,速度是目前市场上芯片的22倍。在他们发表在《科学》杂志
    2025-12-07

最新评论