近日,专注于推动网络与安全融合的全球网络安全企业Fortinet®(NASDAQ:FTNT),发布《2023上半年全球威胁态势研究报告》。报告显示,2023 年上半年勒索软件检出数量继续下降、高级持续性威胁(APT)团体活跃度显著增加以及攻击者使用的 MITRE ATT&CK 技术呈现飞速转变等威胁发展趋势。
由于恶意行为者所用战术和技术的日益复杂以及针对性攻击的不断升级,目前组织持续处于被动局面。《2023 上半年全球威胁态势研究报告》对威胁态势进行了持续跟踪剖析,有助于提供高价值情报,并作为潜在威胁活动的早期预警系统,帮助安全管理者制定更为明智的安全策略并明确漏洞修复优先级。
以下是本次报告的四大关键发现:
关键发现一、变体数量与检出量的冰火两重天
报告显示,近年来勒索软件变体数量大幅飙升,这一趋势的发展主要源自勒索软件即服务(RaaS)模式的大肆兴起。然而,与这一趋势相反的是2023 上半年仅有 13% 的组织成功检测到勒索软件,而五年前这一比例为22%。
Fortinet FortiGuard 全球威胁研究与响应实验室(FortiGuard Labs)对过去几年间的威胁发展趋势进行了总结发现,这种变体数量与检出量冰火两重天的趋势,是由于攻击者所用战术和技术的日益复杂以及提高单次攻击投资回报率(ROI)的强烈意图,也就是勒索软件和其他攻击变得更具针对性。换言之,勒索软件攻击变得“轻易不出手,出手即万事俱备、志在必得”。
关键发现二、高评分漏洞7日危险期威胁陡增
FortiGuard Labs 在本次报告中对近六年漏洞利用历史数据进行了分析,这些数据涉及11,000多个已公开披露的CVE漏洞。分析发现漏洞利用预测评分系统(EPSS) 评分最高(前 1%高危漏洞)的通用漏洞披露(CVE)在7 天内被利用的可能性是其他漏洞的 327 倍。
关键发现三、红区结合有效的补丁管理策略
FortiGuard Labs 基于 EPSS 评分中被在野利用的漏洞分析结果定义红区,在量化终端上遭受主动攻击的可利用漏洞比例的同时,助力首席信息安全官确定漏洞修复优先级。报告显示,已发现、现存和被利用的漏洞数量持续波动,在修复优先级指导下组织实施有效的补丁管理策略显著减少了红区面积。
关键发现四、近三分之一 APT 组织处于活跃状态
本次报告,FortiGuard Labs首次追踪了当前趋势背后威胁参与者的数量。研究表明,2023 年上半年,MITRE 追踪的 138 个网络威胁组织中有 41 个(30%)处于活跃状态。基于恶意软件检测结果显示,其中Turla、StrongPity、Winnti、OceanLotus和WildNeutron等组织是目前最活跃的黑客团体。APT组织的活动演变和数量将成为未来报告中值得期待的焦点。
全方位合力打击网络犯罪
作为企业级网络安全与网络创新解决方案领导者,Fortinet持续保护全球各类企业、服务提供商和政府组织,用户基数超 50 万。值得一提的是,Fortinet持续开发应用于网络安全用例的人工智能(AI)技术,并将其纳入FortiGuard Labs实验室和各类产品组合中,这一创新举措可有效加速对已知和未知威胁的预防、检测和响应。
FortiGuard AI 驱动的安全服务可跨网络和云基础架构的终端和应用程序部署的安全控制组件加以利用。基于 AI 引擎和云分析(包括 EDR、NDR 等)的专用检测和响应技术也可作为此类控制组件的集成扩展功能进行部署。此外,Fortinet 还提供XDR、SIEM、SOAR、DRPS 等集中式响应工具,利用不同 AI 技术、自动化和编排功能加速威胁修复,从而显著挫败整个攻击面和网络攻击杀伤链上的网络犯罪活动。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。