Check Point Research (CPR) 近日发现了四个影响 Microsoft Office 套件产品(包括 Excel 和 Office Online)的安全漏洞。攻击者可利用这些漏洞,通过 Word (.DOCX)、Excel (.EXE) 和 Outlook (.EML) 等恶意 Office 文档在攻击目标上执行代码。这些漏洞源于在 Excel 95 文件格式中发现的遗留代码解析错误,研究人员据此推断这些安全漏洞已存在多年。Check Point安全团队研究表明:恶意代码可能是通过 Word 文档 (.DOCX)、Outlook 电子邮件 (.EML) 及大多数办公文件格式进行传送的;这些漏洞是由于遗留代码的解析错误造成;CPR 负责任地向 Microsoft 披露了这些安全漏洞,Microsoft 随后发布了修复程序:CVE-2021-31174、CVE-2021-31178、CVE-2021-31179、CVE-2021-31939。

发现
CPR 通过“模糊测试”MSGraph 发现了这些漏洞,MSGraph 组件可嵌入到 Microsoft Office 产品中以帮助显示图形和图表。模糊测试是一种自动化软件测试技术,它试图通过将无效和意想不到的数据输入随机输入到计算机程序中来寻找可破解的软件缺陷,从而发现编码错误和安全漏洞。借助该技术,CPR 发现了 MSGraph 中易受攻击的功能。经过类似的代码检查证实,这些易受攻击的功能通用于多种不同的 Microsoft Office 产品,例如 Excel、Office Online Server 和 Excel for OSX。
攻击方法
发现的漏洞可嵌入到大多数 Office 文档中,因此多种攻击向量可供使用。其中,最简单的一种是:
受害者下载恶意 Excel 文件(XLS 格式)。攻击者可通过下载链接或电子邮件传送该文件,但无法强迫受害者进行下载
受害者打开恶意 Excel 文件
漏洞被触发
由于整个 Office 套件都能够嵌入 Excel 对象,可供利用的攻击向量大大增加,这使得攻击者几乎能够对所有 Office 软件(包括 Word、Outlook 等)发起此类攻击。
Microsoft已发布补丁
CPR 负责任地向 Microsoft 披露了其调查结果。Microsoft 随后修补了安全漏洞并发布了 CVE-2021-31174、CVE-2021-31178、CVE-2021-31179。第四个补丁已于 2021 年 6 月 8 日星期二在 Microsoft 补丁下载中心发布,编号为 (CVE-2021-31939)。
Check Point Software 网络研究主管 Yaniv Balmas 表示:“新发现的安全漏洞可影响几乎整个 Microsoft Office 生态系统。攻击者几乎能够在所有 Office 软件上执行此类攻击,包括 Word、Outlook 和其他软件。我们发现这些安全漏洞是由于遗留代码的解析错误造成的。我们的主要调查结果之一就是遗留代码仍然是安全链中的一个薄弱环节,尤其是在 Microsoft Office 等复杂软件中。尽管我们只在攻击面上调查发现了四个漏洞,但没人知道还有多少这样的潜藏漏洞没有被发现。我强烈建议 Windows 用户立即更新软件,因为攻击者可通过多种攻击向量触发我们发现的漏洞。”
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。