安全研究人员警告说,即使数据仅在互联网上短暂曝光,也可能在 Microsoft Copilot 等在线生成式 AI 聊天机器人中长期存在,即使这些数据后来被设为私有。
根据专注于新兴生成式 AI 威胁的以色列网络安全公司 Lasso 的最新发现,包括 Microsoft 在内的全球多家大型公司的数千个曾经公开的 GitHub 代码库都受到了影响。
Lasso 联合创始人 Ophir Dror 向 TechCrunch 表示,公司发现自己的 GitHub 代码库内容出现在 Copilot 中,这是因为它被 Microsoft 的 Bing 搜索引擎索引和缓存。Dror 说,这个曾短暂公开的代码库已经设为私有,在 GitHub 上访问会显示"页面未找到"错误。
Dror 说:"令人惊讶的是,我们在 Copilot 中发现了我们自己的一个私有代码库。如果我浏览网页,就看不到这些数据。但世界上任何人只要向 Copilot 提出正确的问题就能获取这些数据。"
在意识到 GitHub 上的任何数据,即使是短暂存在的,都可能被 Copilot 等工具暴露后,Lasso 进行了进一步调查。
Lasso 提取了 2024 年任何时候曾公开的代码库列表,并识别出已被删除或设为私有的代码库。通过 Bing 的缓存机制,公司发现超过 20,000 个已私有化的 GitHub 代码库的数据仍可通过 Copilot 访问,影响了超过 16,000 个组织。
Lasso 在发布研究结果前告诉 TechCrunch,受影响的组织包括 Google、IBM、PayPal、Tencent 和 Microsoft。Amazon 在文章发布后表示未受此问题影响。Lasso 表示"根据法律团队的建议删除了所有对 AWS 的引用",并"坚持研究结果"。
对于一些受影响的公司,Copilot 可能会被诱导返回包含知识产权、敏感企业数据、访问密钥和令牌的机密 GitHub 存档。
Lasso 指出,他们使用 Copilot 检索到一个已被 Microsoft 删除的 GitHub 代码库内容,该代码库托管着一个可以使用 Microsoft 云 AI 服务创建"攻击性和有害" AI 图像的工具。
Dror 表示,Lasso 已联系所有"严重受影响"的公司,建议他们轮换或撤销任何已泄露的密钥。
Lasso 提到的受影响公司都没有回应 TechCrunch 的询问。Microsoft 也没有回应 TechCrunch 的询问。
Lasso 于 2024 年 11 月向 Microsoft 报告了这一发现。Microsoft 告诉 Lasso,它将此问题归类为"低严重性",称这种缓存行为是"可接受的"。从 2024 年 12 月开始,Microsoft 不再在其搜索结果中包含 Bing 缓存链接。
然而,Lasso 表示,尽管缓存功能已被禁用,Copilot 仍能访问这些数据,即使通过传统网络搜索无法看到,这表明这只是一个临时修复。
好文章,需要你的鼓励
是德科技高级副总裁兼通信解决方案事业部总裁Kailash Narayanan现场指出,算力固然重要,但如果能耗过高,技术的实用性将大打折扣,因此,所有的高速、高性能计算,都必须在极低的功耗下实现,这是AI等技术能否大规模落地的核心前提。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
来自上海交通大学和浙江大学等机构的研究团队开发出首个AI"记忆操作系统"MemOS,解决了AI系统无法实现人类般持久记忆和学习的根本限制。该系统将记忆视为核心计算资源进行调度、共享和演化,在时间推理任务中相比OpenAI记忆系统性能提升159%。MemOS采用三层架构设计,通过标准化记忆单元实现跨平台记忆迁移,有望改变企业AI部署模式。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。