2022已悄然步入下半年,对互联网安全领域而言,2022年必然能成为“载入史册”的一年。近日,Check Point Research (CPR) 报告称,2022 年第二季度全球网络攻击创历史新高,与 2021 年第二季度相比增加了 32%。全球每个机构平均每周所遇攻击次数最高达到 1200 次。
图 1:2021 年第一季度至 2022 年第二季度全球平均每周攻击次数
教育和研究部门成为重灾区
就行业而言,网络犯罪分子的攻击目标主要集中在教育/研究行业,全球范围内该行业每家机构平均每周遭受超过 2300 次攻击,比 2021 年第二季度增长了 53%。
其次是政府/军事部门,平均每周所遇攻击次数为 1600 次,与去年同期相比增长了 44%。紧随其后的是 ISP/MSP、医疗和通信行业,每个机构平均每周遭受 1300 次攻击,同比增速达两位数。
图 2:全球按行业平均每周所遇攻击次数(百分比表示与 2021 年第二季度相比的增幅)
勒索软件成为关注焦点
2022 年 5 月是臭名昭著的 WannaCry 攻击爆发 5 周年,勒索软件已彻底改变了网络威胁格局,演变成为不法团伙手中的利器,甚至开始对政府部门造成威胁。最近,Check Point Research 在观察勒索软件目前如何将其攻击触角伸向政府部门之后,创造了“国家勒索”一词。
在本报告中,CPR 指出全球范围内,平均每周受勒索软件影响的机构比例达到 1/40 — 同比增长 59%(2021 年第二季度为 1/64)。
拉丁美洲地区攻击增幅最大,每周受影响的机构比例为 1/23,同比增长 43%(2021 年第二季度为 1/33);其次是亚洲地区,同比增长 33%,每周受影响的机构比例达到 1/17。
勒索软件攻击的按行业分析
零售商和批发行业的勒索软件攻击激增幅度最大,与去年同期相比骤增 182%,其次是分销商行业,增长了 143%,然后是政府/军事部门,陡增 135%,每周受勒索软件影响的机构比例达到了 1/24。
图 3:攻击比例和增幅的按行业分析
如何防范下一次攻击
SolarWinds 和 Log4J 等大规模网络攻击并非不可避免。有了合适的措施和技术,许多企业就能够避免此类攻击带来的影响和毁灭性后果。为了真正抵御下一次威胁,用户必须主动出击,采用可防御最隐蔽的零日攻击的先进技术。
传统的网络安全厂商通常声称攻击必然发生且不可避免,因此唯有进行技术投资,方可在网络遭到攻击入侵后实施检测,并尽快减轻损失。
但事实并非如此。用户不仅可以阻止攻击,而且还能够防御零日攻击和未知恶意软件等。一旦有了合适的技术,企业就可以在不中断正常业务流程的情况下阻止大多数攻击,甚至是最复杂的攻击。
恶意软件不断演变,因此威胁情报成为了几乎所有公司均需考虑的重要工具。当一家企业的业务涉及个人与公众财务信息、关键知识产权或国家资产时,采用更全面的网络安全方案是抵御当今攻击者侵害的唯一方法。如今最有效的主动式安全解决方案之一就是威胁情报。
攻击技术纷繁多样且不断演变。IT 系统非常复杂,没有一种技术能够搞定所有威胁和威胁向量,任何技术都不是万能的。但现有许多有效的综合技术和理念(例如机器学习、沙盒、异常检测、解除内容威胁等)可帮助防范下一次网络攻击。每项技术都有自己特别擅长的地方,或是特定的文件类型,或是某些攻击向量,不一而足。强大的解决方案集成了各种技术和创新,可有效抵御 IT 环境中的现代攻击。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。