安全研究人员警告说,即使数据仅在互联网上短暂曝光,也可能在 Microsoft Copilot 等在线生成式 AI 聊天机器人中长期存在,即使这些数据后来被设为私有。
根据专注于新兴生成式 AI 威胁的以色列网络安全公司 Lasso 的最新发现,包括 Microsoft 在内的全球多家大型公司的数千个曾经公开的 GitHub 代码库都受到了影响。
Lasso 联合创始人 Ophir Dror 向 TechCrunch 表示,公司发现自己的 GitHub 代码库内容出现在 Copilot 中,这是因为它被 Microsoft 的 Bing 搜索引擎索引和缓存。Dror 说,这个曾短暂公开的代码库已经设为私有,在 GitHub 上访问会显示"页面未找到"错误。
Dror 说:"令人惊讶的是,我们在 Copilot 中发现了我们自己的一个私有代码库。如果我浏览网页,就看不到这些数据。但世界上任何人只要向 Copilot 提出正确的问题就能获取这些数据。"
在意识到 GitHub 上的任何数据,即使是短暂存在的,都可能被 Copilot 等工具暴露后,Lasso 进行了进一步调查。
Lasso 提取了 2024 年任何时候曾公开的代码库列表,并识别出已被删除或设为私有的代码库。通过 Bing 的缓存机制,公司发现超过 20,000 个已私有化的 GitHub 代码库的数据仍可通过 Copilot 访问,影响了超过 16,000 个组织。
Lasso 在发布研究结果前告诉 TechCrunch,受影响的组织包括 Google、IBM、PayPal、Tencent 和 Microsoft。Amazon 在文章发布后表示未受此问题影响。Lasso 表示"根据法律团队的建议删除了所有对 AWS 的引用",并"坚持研究结果"。
对于一些受影响的公司,Copilot 可能会被诱导返回包含知识产权、敏感企业数据、访问密钥和令牌的机密 GitHub 存档。
Lasso 指出,他们使用 Copilot 检索到一个已被 Microsoft 删除的 GitHub 代码库内容,该代码库托管着一个可以使用 Microsoft 云 AI 服务创建"攻击性和有害" AI 图像的工具。
Dror 表示,Lasso 已联系所有"严重受影响"的公司,建议他们轮换或撤销任何已泄露的密钥。
Lasso 提到的受影响公司都没有回应 TechCrunch 的询问。Microsoft 也没有回应 TechCrunch 的询问。
Lasso 于 2024 年 11 月向 Microsoft 报告了这一发现。Microsoft 告诉 Lasso,它将此问题归类为"低严重性",称这种缓存行为是"可接受的"。从 2024 年 12 月开始,Microsoft 不再在其搜索结果中包含 Bing 缓存链接。
然而,Lasso 表示,尽管缓存功能已被禁用,Copilot 仍能访问这些数据,即使通过传统网络搜索无法看到,这表明这只是一个临时修复。
好文章,需要你的鼓励
Inception Labs 于周四发布了 Mercury Coder,这是一种新的 AI 语言模型,利用扩散技术比传统模型更快地生成文本。与逐字生成文本的传统模型(如 ChatGPT)不同,基于扩散的模型(如 Mercury)能够同时生成完整的响应,并将其从最初的遮蔽状态逐步精炼为连贯的文本。
微软终于将其 AI 助手 Copilot 作为独立应用程序推出 macOS 版本。这款免费应用现已在 Mac App Store 上线,支持多种功能如文本翻译、问题解答、文档生成等。Copilot 采用 OpenAI 的 GPT-4 和 DALL-E 3 等模型,标志着微软在 AI 领域的重要布局。该应用要求 M1 或更新的 Mac 设备,以及 macOS 14 或更高版本。