2023 年 1 月,网络安全解决方案提供商 Check Point® 软件技术有限公司(纳斯达克股票代码:CHKP)发布了其 2022 年 12 月最新版《全球威胁指数》报告。上月,基于区块链的木马僵尸网络 Glupteba 来势汹汹,自 2022 年 7 月以来首次重返前十排行榜,升至第八位。Qbot 是一种复杂的木马,可窃取银行凭证和键盘使用记录,在上个月再度来袭后取代 Emotet 成为最猖獗的恶意软件,影响了全球 7% 的机构。同时,Android 恶意软件 Hiddad 卷土重来,教育行业仍然是全球受影响最大的行业。
尽管谷歌于 2021 年 12 月成功对 Glupteba 僵尸网络活动造成重创,但该僵尸网络近期余烬复燃。作为一种模块化恶意软件变体,Glupteba 能够在受感染电脑上实现各种不轨意图。该僵尸网络通常用作其他恶意软件的下载程序和植入程序。这意味着,Glupteba 感染可能导致勒索软件感染、数据泄露或其他安全事件。Glupteba 还可从受感染的机器上窃取用户凭证和会话 cookie。这种身份验证数据可用于访问用户的在线帐户或其他系统,便于攻击者窃取敏感数据或利用这些被盗帐户采取其他操作。最后,该恶意软件被广泛用于将加密货币挖矿功能部署至其目标上,隐蔽的挖矿活动会耗尽电脑的资源。
12 月,Hiddad 在 2022 年进入移动恶意软件排行榜前三名。Hiddad 是一种广告分发恶意软件,主要瞄准 Android 设备。它能够对合法应用进行重新打包,然后将其发布到第三方商店。其主要功能是显示广告,但它也可以访问操作系统内置的关键安全细节。
Check Point 软件技术公司研究副总裁 Maya Horowitz 表示:“我们最新的研究表明,恶意软件经常伪装成合法软件,让黑客通过后门访问设备而不引起怀疑。因此,您在下载任何软件和应用或点击链接时务必要小心,无论它们看上去多么真实。”
CPR 还指出,“Web Server Exposed Git 存储库信息泄露”是最常被利用的漏洞,全球 46% 的机构因此遭殃,其次是“Web 服务器恶意 URL 目录遍历漏洞”,影响了全球 44% 的机构。“HTTP 载荷命令行注入”是第三大最常被利用的漏洞,全球影响范围为 43%。
头号恶意软件家族
* 箭头表示与上月相比的排名变化。
Qbot 是上个月最猖獗的恶意软件,全球 7% 的机构受到波及,其次是 Emotet 和 XMRig,分别影响了全球 4% 和 3% 的机构。
最常被利用的漏洞
12 月,“Web Server Exposed Git 存储库信息泄露”是最常被利用的漏洞,全球 46% 的机构因此遭殃,其次是“Web 服务器恶意 URL 目录遍历漏洞”,影响了全球 44% 的机构。“HTTP 载荷命令行注入”是第三大最常被利用的漏洞,全球影响范围为 43%。
主要移动恶意软件
上月,Anubis 仍是最猖獗的移动恶意软件,其次是 Hiddad 和 AlienBot。
Check Point《全球威胁影响指数》及其《ThreatCloud 路线图》基于 Check Point ThreatCloud 情报数据撰写而成。ThreatCloud 提供的实时威胁情报来自于部署在全球网络、端点和移动设备上的数亿个传感器。AI 引擎和 Check Point 软件技术公司情报与研究部门 Check Point Research 的独家研究数据进一步丰富了这些情报内容。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。