2023 年 1 月,网络安全解决方案提供商 Check Point® 软件技术有限公司(纳斯达克股票代码:CHKP)发布了其 2022 年 12 月最新版《全球威胁指数》报告。上月,基于区块链的木马僵尸网络 Glupteba 来势汹汹,自 2022 年 7 月以来首次重返前十排行榜,升至第八位。Qbot 是一种复杂的木马,可窃取银行凭证和键盘使用记录,在上个月再度来袭后取代 Emotet 成为最猖獗的恶意软件,影响了全球 7% 的机构。同时,Android 恶意软件 Hiddad 卷土重来,教育行业仍然是全球受影响最大的行业。
尽管谷歌于 2021 年 12 月成功对 Glupteba 僵尸网络活动造成重创,但该僵尸网络近期余烬复燃。作为一种模块化恶意软件变体,Glupteba 能够在受感染电脑上实现各种不轨意图。该僵尸网络通常用作其他恶意软件的下载程序和植入程序。这意味着,Glupteba 感染可能导致勒索软件感染、数据泄露或其他安全事件。Glupteba 还可从受感染的机器上窃取用户凭证和会话 cookie。这种身份验证数据可用于访问用户的在线帐户或其他系统,便于攻击者窃取敏感数据或利用这些被盗帐户采取其他操作。最后,该恶意软件被广泛用于将加密货币挖矿功能部署至其目标上,隐蔽的挖矿活动会耗尽电脑的资源。
12 月,Hiddad 在 2022 年进入移动恶意软件排行榜前三名。Hiddad 是一种广告分发恶意软件,主要瞄准 Android 设备。它能够对合法应用进行重新打包,然后将其发布到第三方商店。其主要功能是显示广告,但它也可以访问操作系统内置的关键安全细节。
Check Point 软件技术公司研究副总裁 Maya Horowitz 表示:“我们最新的研究表明,恶意软件经常伪装成合法软件,让黑客通过后门访问设备而不引起怀疑。因此,您在下载任何软件和应用或点击链接时务必要小心,无论它们看上去多么真实。”
CPR 还指出,“Web Server Exposed Git 存储库信息泄露”是最常被利用的漏洞,全球 46% 的机构因此遭殃,其次是“Web 服务器恶意 URL 目录遍历漏洞”,影响了全球 44% 的机构。“HTTP 载荷命令行注入”是第三大最常被利用的漏洞,全球影响范围为 43%。
头号恶意软件家族
* 箭头表示与上月相比的排名变化。
Qbot 是上个月最猖獗的恶意软件,全球 7% 的机构受到波及,其次是 Emotet 和 XMRig,分别影响了全球 4% 和 3% 的机构。
最常被利用的漏洞
12 月,“Web Server Exposed Git 存储库信息泄露”是最常被利用的漏洞,全球 46% 的机构因此遭殃,其次是“Web 服务器恶意 URL 目录遍历漏洞”,影响了全球 44% 的机构。“HTTP 载荷命令行注入”是第三大最常被利用的漏洞,全球影响范围为 43%。
主要移动恶意软件
上月,Anubis 仍是最猖獗的移动恶意软件,其次是 Hiddad 和 AlienBot。
Check Point《全球威胁影响指数》及其《ThreatCloud 路线图》基于 Check Point ThreatCloud 情报数据撰写而成。ThreatCloud 提供的实时威胁情报来自于部署在全球网络、端点和移动设备上的数亿个传感器。AI 引擎和 Check Point 软件技术公司情报与研究部门 Check Point Research 的独家研究数据进一步丰富了这些情报内容。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。