两个版本的LiteLLM因遭受供应链攻击而被从Python包索引(PyPI)中移除。LiteLLM是一个开源接口,用于访问多个大语言模型。
具体来说,LiteLLM v1.82.7和v1.82.8版本已被下架,因为它们在组件文件litellm_init.pth中包含了恶意的凭证窃取代码。
维护LiteLLM的Berri AI公司首席执行官Krrish Dholakia在网上发帖称,此次攻击似乎源于该项目CI/CD流水线中使用的Trivy。
Trivy是由Aqua Security维护的开源漏洞扫描器,许多其他项目都将其作为安全措施。根据Aqua Security的说明,这一恶意软件活动始于2月下旬,攻击者利用Trivy GitHub Actions环境中的错误配置窃取了一个特权访问令牌,从而能够操控CI/CD流程。
软件在3月19日被篡改,当时被称为TeamPCP的攻击者使用被盗凭证发布了恶意Trivy版本(v0.69.4),3月22日又发布了恶意Trivy版本v0.69.5和v0.69.6作为DockerHub镜像。
但Aqua Security解释说,攻击者采用的方法比仅仅上传新的恶意Trivy版本更为复杂。
"通过修改与GitHub Action脚本trivy-action相关的现有版本标签,他们将恶意代码注入到组织已经运行的工作流中,"该公司表示。"由于许多CI/CD流水线依赖版本标签而不是固定提交,这些流水线继续执行,而没有任何迹象表明底层代码已经发生变化。"
Dholakia说,LiteLLM的PYPI_PUBLISH令牌作为.env变量存储在项目的GitHub仓库中,被发送到Trivy,攻击者获得了该令牌,然后用它推送新的LiteLLM代码。
"我们已经删除了所有PyPI发布令牌,"他说。"我们的账户启用了双因素认证,所以这是一个糟糕的令牌问题。我们正在审查我们的账户,看看如何让它更安全(通过JWT令牌进行可信发布,迁移到不同的PyPI账户等)。"
另一个令人意外的发展是,GitHub漏洞报告似乎遭到了垃圾信息攻击,旨在分散注意力并模糊有关报告的有用评论。在太平洋夏令时上午5:44,数十条推测是AI生成的"谢谢,这很有帮助!"的变体涌入了仓库。根据安全研究员Rami McCarthy的说法,用于发布的25个账户中有19个也被用于Trivy垃圾信息活动。
Python打包管理局(PyPA)已发布关于LiteLLM攻击的安全公告。
"任何安装并运行该项目的人都应该假设LiteLLM环境中可用的任何凭证可能已被泄露,并相应地撤销/轮换它们,"公告说。
Q&A
Q1:LiteLLM是什么?为什么会被攻击?
A:LiteLLM是一个开源接口,用于访问多个大语言模型。它遭受攻击是因为项目CI/CD流水线中使用的Trivy漏洞扫描器被恶意篡改,攻击者通过这个途径获取了项目的发布令牌。
Q2:这次供应链攻击是如何实施的?
A:攻击者首先利用Trivy GitHub Actions环境的错误配置窃取特权访问令牌,然后修改现有版本标签注入恶意代码。由于很多CI/CD流水线依赖版本标签而不是固定提交,恶意代码得以在不被察觉的情况下执行。
Q3:用户如果使用了受影响的LiteLLM版本应该怎么办?
A:根据Python打包管理局的安全公告,任何安装并运行LiteLLM v1.82.7和v1.82.8版本的用户都应该假设其环境中的凭证可能已被泄露,需要立即撤销和轮换所有相关凭证。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。