Broadcom 修复了 VMware Cloud Foundation 中 IT 运维和日志管理工具的五个高危漏洞,其中包括两个在特定条件下可能导致凭证泄露的信息泄露漏洞。
所有漏洞都已提供修复补丁。Broadcom 的安全公告指出,目前尚未发现这些漏洞被实际利用的情况。
值得注意的是,利用这些漏洞需要获得对易受攻击部署的授权访问权限,因此如果这些漏洞在实际环境中被成功利用,很可能是通过被入侵或恶意账户实现的。
这些 CVE 漏洞影响了用于跨环境管理 IT 运维的 Aria Operations,以及用于存储和分析日志数据的 Aria Operations for Logs。两者都是 VMware Cloud Foundation 的组件,这意味着这些漏洞也影响了该混合云平台的 4.x 和 5.x 版本。
具体而言:四个漏洞 (CVE-2025-22218、CVE-2025-22219、CVE-2025-22220 和 CVE-2025-22221) 影响 VMware Aria Operations for Logs 8.0 及更新版本,一个漏洞 (CVE-2025-22222) 影响相同版本的 VMware Aria Operations。将两个产品更新到 v8.18.3 版本可以修复这些问题。VMware Cloud Foundation 用户可以按照 KB92148 来应用必要的修复。
其中最严重的是 CVE-2025-22218,这是一个严重等级为 8.5 的信息泄露漏洞,存在于 VMware Aria Operations for Logs 中。安全警告称:"具有只读管理员权限的恶意行为者可能能够读取与 VMware Aria Operations for Logs 集成的 VMware 产品的凭证。"
影响 VMware Aria Operations 的单个漏洞 CVE-2025-22222 也是一个信息泄露漏洞,其 CVSS 严重等级为 7.7。只要拥有(或窃取)有效的服务凭证 ID,非管理员权限用户就可以利用此漏洞窃取外部插件的凭证。
在 VMware Aria Operations for Logs 中修复的漏洞还包括两个存储型跨站脚本 (XSS) 漏洞:CVE-2025-22219 和 CVE-2025-22221,CVSS 评分分别为 6.8 和 5.2。
这两个漏洞都可以被用来向应用程序注入恶意脚本,然后在受害者的浏览器中执行。利用 CVE-2025-22219 不需要管理员权限,可能导致以管理员级别用户身份执行任意操作。
而利用 CVE-2025-22221 需要管理员权限。但如果攻击者拥有此权限,他们可以注入恶意脚本,在受害者执行代理配置的删除操作时在其浏览器中执行。
最后是一个 CVSS 评分为 4.3 的权限提升漏洞,编号为 CVE-2025-22220。该漏洞允许具有 Aria Operations for Logs API 网络访问权限的用户执行某些本应需要管理员权限的操作。
Broadcom 感谢来自米其林 CERT 的 Maxime Escourbiac,以及来自 Abicom 的 Yassine Bengana 和 Quentin Ebel 发现并披露了这五个漏洞。
由于 VMware 虚拟化软件在大型企业和政府机构中的普遍使用,无论是国家级黑客还是以金钱为动机的犯罪分子都热衷于利用 VMware 漏洞。鉴于其作为主要攻击目标的历史,即使这些漏洞的利用条件相对严格,也建议将这些补丁放在近期待办事项列表中。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。