安全研究人员警告说,即使数据仅在互联网上短暂曝光,也可能在 Microsoft Copilot 等在线生成式 AI 聊天机器人中长期存在,即使这些数据后来被设为私有。
根据专注于新兴生成式 AI 威胁的以色列网络安全公司 Lasso 的最新发现,包括 Microsoft 在内的全球多家大型公司的数千个曾经公开的 GitHub 代码库都受到了影响。
Lasso 联合创始人 Ophir Dror 向 TechCrunch 表示,公司发现自己的 GitHub 代码库内容出现在 Copilot 中,这是因为它被 Microsoft 的 Bing 搜索引擎索引和缓存。Dror 说,这个曾短暂公开的代码库已经设为私有,在 GitHub 上访问会显示"页面未找到"错误。
Dror 说:"令人惊讶的是,我们在 Copilot 中发现了我们自己的一个私有代码库。如果我浏览网页,就看不到这些数据。但世界上任何人只要向 Copilot 提出正确的问题就能获取这些数据。"
在意识到 GitHub 上的任何数据,即使是短暂存在的,都可能被 Copilot 等工具暴露后,Lasso 进行了进一步调查。
Lasso 提取了 2024 年任何时候曾公开的代码库列表,并识别出已被删除或设为私有的代码库。通过 Bing 的缓存机制,公司发现超过 20,000 个已私有化的 GitHub 代码库的数据仍可通过 Copilot 访问,影响了超过 16,000 个组织。
Lasso 在发布研究结果前告诉 TechCrunch,受影响的组织包括 Google、IBM、PayPal、Tencent 和 Microsoft。Amazon 在文章发布后表示未受此问题影响。Lasso 表示"根据法律团队的建议删除了所有对 AWS 的引用",并"坚持研究结果"。
对于一些受影响的公司,Copilot 可能会被诱导返回包含知识产权、敏感企业数据、访问密钥和令牌的机密 GitHub 存档。
Lasso 指出,他们使用 Copilot 检索到一个已被 Microsoft 删除的 GitHub 代码库内容,该代码库托管着一个可以使用 Microsoft 云 AI 服务创建"攻击性和有害" AI 图像的工具。
Dror 表示,Lasso 已联系所有"严重受影响"的公司,建议他们轮换或撤销任何已泄露的密钥。
Lasso 提到的受影响公司都没有回应 TechCrunch 的询问。Microsoft 也没有回应 TechCrunch 的询问。
Lasso 于 2024 年 11 月向 Microsoft 报告了这一发现。Microsoft 告诉 Lasso,它将此问题归类为"低严重性",称这种缓存行为是"可接受的"。从 2024 年 12 月开始,Microsoft 不再在其搜索结果中包含 Bing 缓存链接。
然而,Lasso 表示,尽管缓存功能已被禁用,Copilot 仍能访问这些数据,即使通过传统网络搜索无法看到,这表明这只是一个临时修复。
好文章,需要你的鼓励
随着数字化时代的到来,网络安全威胁呈指数级增长。勒索软件、AI驱动的网络攻击和物联网设备漏洞成为主要威胁。企业需要建立全面的风险管理策略,包括风险评估、安全措施实施和持续监控。新兴技术如人工智能、区块链和量子计算为网络安全带来新机遇。组织应重视员工培训、供应链安全、数据治理和事件响应能力建设。
滑铁卢大学研究团队开发出ScholarCopilot,一个革命性的AI学术写作助手。该系统突破传统"先检索后生成"模式,实现写作过程中的动态文献检索和精确引用。基于50万篇arXiv论文训练,引用准确率达40.1%,大幅超越现有方法。在人类专家评估中,引用质量获100%好评,整体表现优于ChatGPT。这项创新为AI辅助学术写作开辟新道路。
AWS Amazon Bedrock负责人Atul Deo正致力于让人工智能软件变得更便宜和更智能。他在12月re:Invent大会前只有六个月时间来证明这一目标的可行性。Deo表示AI领域发展速度前所未有,模型每几周就会改进,但客户只有在经济效益合理时才会部署。为此,AWS推出了提示缓存、智能路由、批处理模式等功能来降低推理成本,同时开发能执行多步骤任务的自主代理软件,将AI应用从聊天机器人转向实际业务流程自动化。
哥伦比亚大学研究团队发布NodeRAG技术,通过异构图结构革新智能问答系统。该方法将文档信息分解为7种节点类型,采用双重搜索机制,在多个权威测试中准确率达89.5%,检索效率提升50%以上,为智能信息检索技术带来重大突破。