主流AI平台擅自共享用户个人信息 ,用户掌控权严重缺失
根据Incogni的主流掌控重缺研究报告,包括Meta 、平台谷歌和微软在内的擅自失多家主流生成式AI和大语言模型(LLM)平台正在收集敏感数据并与不明第三方共享,导致用户对自身信息的共享个人存储、使用和共享方式既缺乏透明度,用户用户也几乎没有任何控制权。信息

谷歌Gemini 、权严Meta AI、主流掌控重缺DeepSeek和Pi.ai等平台均未提供退出机制来阻止用户输入内容被用于AI模型训练。平台一旦输入个人或敏感数据 ,免费模板擅自失实际上无法从AI训练数据集中删除这些信息 。共享个人尽管《通用数据保护条例》(GDPR)等法律赋予个人要求删除数据的用户用户权利,但如何从机器学习模型中实际移除信息仍不明确。信息因此 ,权严许多公司目前既无义务也缺乏技术能力来事后删除此类数据 。主流掌控重缺用户的联系信息或商业机密可能在未经明确告知或同意的情况下,被永久嵌入模型训练数据中 。
数据收集行为全景扫描随着生成式AI日益融入日常生活,用户往往不清楚这些工具收集了哪些个人数据、高防服务器如何使用以及最终流向何处 。研究人员从三个维度分析了主流AI平台的数据实践 :用户数据在模型训练中的使用情况 、平台隐私政策的透明度 、数据收集与第三方共享的范围。
Meta.ai和Gemini会收集用户的精确定位数据和实体地址Claude根据其Google Play商店页面显示,会向第三方共享电子邮件、电话号码和应用交互数据Grok(xAI)可能将用户提供的服务器租用照片和应用交互数据共享给第三方Meta.ai会与外部实体(包括研究合作伙伴和企业集团成员)共享姓名 、电子邮件和电话号码微软的隐私政策暗示用户输入内容可能被共享给涉及在线广告或使用微软广告技术的第三方Gemini 、DeepSeek、Pi.ai和Meta.ai很可能未提供退出模型训练的选择权ChatGPT在说明哪些输入内容会用于模型训练方面最为透明,并制定了清晰的隐私政策即便用户主动寻求解释,相关细节也往往隐藏在零散的帮助页面或用晦涩的法律术语书写。香港云服务器Incogni发现所有被分析的隐私政策都需要大学水平的阅读能力才能理解。
员工使用AI或致商业机密外泄除个人隐私外,企业面临的风险更为严峻。员工常使用生成式AI工具协助起草内部报告或通讯,却未意识到这可能导致专有数据成为模型训练集的一部分 。这种保护机制的缺失不仅使个人面临非自愿数据共享,还可能导致敏感商业数据在未来与其他用户的模板下载交互中被重复利用,从而引发隐私 、合规和竞争风险。
"多数人以为只是在与可信助手对话,并未泄露联系信息或商业机密 。"Incogni负责人Darius Belejevas指出,"实际情况更具侵入性,而企业并未让用户轻松理解数据的真实流向 。用户有权知晓哪些数据被收集、谁能查看以及如何阻止。源码库目前这些答案往往难以寻觅 ,甚至根本不存在。"
相关文章
2024年1月18日,北京航天启星科技有限公司以下简称“航天启星”)宣布完成数千万新一轮融资,本轮融资由上市公司和产业领域的个人战略股东领投,公司创始人和核心高管跟投的联合投资。这不仅是资本市场对航天2025-12-07
打响AI攻防战,派拓网络助力企业从“被动防御”转向“AI驱动的主动防护”
2022年底,OpenAI推出的ChatGPT标志着生成式AI技术发展迈入全新阶段。然而,这项突破性技术的快速普及,也对全球网络安全态势带来了前所未有的挑战。生成式AI的高效性和易用性,正在重塑攻击者2025-12-07
2025 年第一季度 159 个 CVE 漏洞遭利用 28.3% 在披露 24 小时内被攻击
2025年第一季度共有159个CVE编号漏洞被确认在野利用,较2024年第四季度的151个有所上升。网络安全公司VulnCheck向《黑客新闻》提供的报告指出:"我们发现漏洞利用速度持续加快,28.32025-12-07
黑客在针对远程桌面协议 (RDP)服务的攻击中使用的最常见密码凸显了许多组织安全态势中的严重漏洞。Specops 研究团队分析了针对 RDP 端口的实时攻击中使用的 1500 万个密码,结果显示简单、2025-12-07
1、推动成功的结果该报告确定了一些在网络安全方面处于领先地位的企业。这些公司被埃森哲公司称之为“网络变革者”,占受访企业的30%,他们在网络弹性和与商业战略保持一致以实现更好的业务成果之间取得了平衡。2025-12-07
CISA 警告 VMware 漏洞正遭积极利用,敦促企业立即修补
2025年3月4日,美国网络安全和基础设施安全局CISA)发布紧急警报,将三个关键VMware漏洞添加到其已知被利用漏洞KEV)目录中,原因是有证据表明这些漏洞正在被积极利用。这些漏洞编号为CVE-22025-12-07

最新评论