近日,网络安全解决方案提供商 Check Point 软件技术有限公司(纳斯达克股票代码:CHKP)的威胁情报部门 Check Point Research 发布了 2020 年 12 月最新版《全球威胁指数》报告。研究人员报告称,由于假日期间每天攻击超过 100,000 名用户的垃圾邮件攻击活动,Emotet 木马再度跃居恶意软件排行榜榜首,影响了全球 7% 的组织。
2020 年 9 月和 10 月,Emotet 始终位居全球威胁指数榜单之首,并与一波勒索软件攻击密切相关。但到了 11 月,其活跃程度明显下降,跌至指数榜单第 5 位。研究人员表示,该木马现已更新,添加了新的恶意有效负载和改进的检测规避功能:最新版本创建了一个对话框,可帮助其逃避用户检测。Emotet 全新恶意垃圾邮件攻击活动使用不同的投递技术来传播 Emotet,包括嵌入式链接、文档附件或密码保护压缩文件。
Emotet 于 2014 年首次被发现,并由开发人员进行定期更新,以保持其恶意活动威力。国土安全部估计,涉及 Emotet 的每起事件均需组织耗费 100 多万美元来消除影响。
Check Point 产品威胁情报与研究总监 Maya Horowitz 表示:“Emotet 最初被开发为银行恶意软件,以潜入用户电脑窃取私人和敏感信息。但它一直在不断演化,现已被视为造成损失最严重且破坏性最大的恶意软件变体之一。各组织必须充分意识到 Emotet 构成的威胁,并构建强大的安全系统来防止严重的数据泄露。此外,他们还应为员工提供全面培训,以便其准确识别传播 Emotet 的恶意电子邮件类型。”
研究团队还警告称,“MVPower DVR 远程代码执行”是最常被利用的漏洞,全球 42% 的组织因此遭殃,其次是“HTTP 标头远程代码执行 (CVE-2020-13756)”,影响了全球 42% 的组织。
头号恶意软件家族
* 箭头表示与上月相比的排名变化。
Emotet 仍然是本月最活跃的恶意软件,全球 7% 的组织受到波及,紧随其后的是 Trickbot 和 Formbook,两者均影响了全球 4% 的组织。
↑ Emotet - Emotet 是一种能够自我传播的高级模块化木马。Emotet 曾经被用作银行木马,最近又被用作其他恶意软件或恶意攻击的传播程序。它使用多种方法和规避技术来确保持久性和逃避检测。此外,它还可以通过包含恶意附件或链接的网络钓鱼垃圾邮件进行传播。
↑ Trickbot - Trickbot 是一种使用广泛的银行木马,不断添加新的功能、特性和传播向量。这让它成为一种灵活的可自定义的恶意软件,广泛用于多目的攻击活动。
↑ Formbook - Formbook 是一种信息窃取程序,可从各种 Web 浏览器中获取凭证、收集截图、监控和记录击键次数,并按照其 C&C 命令下载和执行文件。
最常被利用的漏洞
本月,“MVPower DVR 远程代码执行”是最常被利用的漏洞,全球 42% 的组织因此遭殃,其次是“HTTP 标头远程代码执行 (CVE-2020-13756)”,影响了全球 42% 的组织。“Web Server Exposed Git 存储库信息泄露”仍位列最常被利用的漏洞排行榜第三位,全球影响范围为 41%。
↑ MVPower DVR 远程代码执行 - 一种存在于 MVPower DVR 设备中的远程代码执行漏洞。远程攻击者可利用此漏洞,通过精心设计的请求在受感染的路由器中执行任意代码。
↓ HTTP 标头远程代码执行 (CVE-2020-13756) - HTTP 标头允许客户端和服务器传递带 HTTP 请求的其他信息。远程攻击者可能会使用存在漏洞的 HTTP 标头在受感染机器上运行任意代码。
↑ Web Server Exposed Git 存储库信息泄露 - Git 存储库报告的一个信息泄露漏洞。攻击者一旦成功利用该漏洞,便会使用户在无意间造成帐户信息泄露。
主要移动恶意软件
本月,Hiddad 位列最猖獗的移动恶意软件榜首,其次是 xHelper 和 Triada。
Check Point《全球威胁影响指数》及其《ThreatCloud 路线图》基于 Check Point ThreatCloud 情报数据撰写而成,ThreatCloud 是打击网络犯罪的最大协作网络,可通过全球威胁传感器网络提供威胁数据和攻击趋势。ThreatCloud 数据库每天检查超过 25 亿个网站和 5 亿份文件,每天识别超过 2.5 亿起恶意软件攻击活动。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。