AI正在驱动一切,重构一切,网络安全也不例外。AI的介入会进一步升级目前的网络犯罪与网络安全体系,进而成为攻击者与防御者之间的军备竞赛。
派拓网络看到,当前威胁格局中主要有三个问题,包括网络犯罪分子与高级持续威胁(APT) 团伙之间的界限正在变得模糊、事故对目标企业产生的影响更广泛、检测和缓解攻击需要多种防御途径。
“在生成式AI出现后,某种层面加速了攻击者的能力。”派拓网络新加坡,日本及亚太地区咨询总监刘俊佃说。
派拓网络新加坡,日本及亚太地区咨询总监刘俊佃
AI对抗AI,未来网络安全的关键策略
我们已经发现犯罪分子正在使用一些AI开源技术绕过这些安全监测,所以用AI来赋能网络安全防御已经成为未来的趋势。
目前利用生成式AI助长的攻击有三大类,第一,使用AI生成木马程序,变种恶意软件克服了基于特征码的检测;第二,使用AI生成钓鱼软件,精心制作电子邮件提高信任度;第三,使用AI执行机器速度/创造性攻击。
IBM研究院制造的恶意软件Deep Locker,就展示了使用深度神经网络(DNN))人工智能模型,将其攻击有效载荷隐藏在良性载体应用程序中,而有效载荷只有在达到预定目标时才会解锁。
Deep Locker利用多种属性进行目标识别,包括视觉、音频、地理位置和系统级特征。与现有的规避性和针对性恶意软件相比,这种方法将使逆向工程良性载体软件和恢复任务关键机密(包括攻击有效载荷和目标的具体情况)变得极具挑战性。
刘俊佃强调,AI让我们看到更快、更强、更精准的攻击模式,所以用AI对抗AI是唯一出路。
派拓网络建议企业要做好6件事,第一,改变对成功的看法,包括响应,而不仅仅是预防;第二,优先考虑能限制攻击者并为防御者提供回旋空间和时间的防御;第三,精简防御,实现可重复性和自动化;第四,24/7全天候监控,增加攻击者的时间压力;第五,测量并减少外部攻击面;第六,过渡到零信任企业,增强安全措施。
零信任+平台=前瞻性:派拓网络的安全公式
一个企业持续、长期、安全的运行,在于它能够很好的防御自身所有的信息,这是最基础首要的。
企业需要主动去预测和前瞻性地出击,分析企业所运营整个环境的风险点,并识别出这些风险点。随着AI攻击的加剧,需要调整对于自己企业所运行的风险、环境的假设。当然企业要采取的是一个平衡的战略,不能走极端,将策略完全放在主动出击,或完全被动防御。
派拓网络一直在进行威胁信息方面的研究,目的是通过研究以及措施,能够真正地关注到这个问题,并且为企业提供他们所想要的防御和保护。刘俊佃也谈到,AI本身是中立的,现在研究的方向是AI如何在被滥用或错误使用时的用例,因为这些用例正在成规模增加。
由于现在生成式AI所引发的新威胁有三个特点,更加可规模化、视角不同、本身攻击的本质发生了变化,所以这导致派拓网络在收集威胁情报的时候,与从前相比会有一个完全不同的视角。
从工具上讲,相比单点安全产品的大量叠加,平台化的解决方案可以实现全面、自动化的安全防御,真正做到主动有效地保护企业的网络安全。派拓网络有一个安全公式:零信任+平台=前瞻性。零信任指杜绝任何隐含信任并以持续验证为基础的策略;平台指根据需求连接不同类型的最佳功能,实现最大的可见性、控制和效率;前瞻性指轻松安全转型,让企业在安全的环境下高效地运营和创新。
派拓网络的下一代网络安全平台可以从网络、云、端点三个维度应对数字经济时代的安全挑战,并在所有安全方案之上提供一套自动化安全运营分析系统。这一切都是依托于派拓网络在全球的安全威胁情报网络——一个由顶级安全分析专家组成的专业安全团队Unit 42,对全球发生的安全事件和情报进行及时的分析和响应。
好文章,需要你的鼓励
AI能让够更早,更准确的发现并预测癌变的发生,这也是目前AI医疗的的一个主流发展方向,更早的发现,更准确的预测。最近一项来自美国国立卫生研究院(NIH)的研究就在对肺癌精准预测方向上取得了重大突破
慕尼黑大学研究团队开发了SwarmAgentic技术,这是首个能够完全自主生成智能体系统的框架,无需人工预设模板。该技术借鉴蜂群智能原理,让AI系统自己决定需要什么角色、如何分工协作。在旅行规划等六项复杂任务测试中,SwarmAgentic表现优异,在旅行规划任务上比现有最佳方法提升261.8%,展现了全自动智能体系统设计的巨大潜力。
Salesforce发布Agentforce 3平台重大升级,新增指挥中心提供AI智能体实时性能监控,支持MCP开放标准实现与数百种企业工具无缝集成。数据显示AI智能体使用量六个月内激增233%,超8000家客户部署该技术。百事可乐等全球企业已将其深度集成到业务运营中。新版本还提供50%更低延迟、增强安全性和200多个预配置行业操作模板,帮助企业快速部署功能性AI智能体。
EPFL研究团队开发了首个专门测试AI计算机代理安全性的综合平台OS-HARM,通过150个测试任务发现包括GPT-4.1、Claude 3.7 Sonnet等在内的主流AI代理都存在严重安全漏洞,会执行有害指令、易受攻击欺骗,并可能因判断失误造成危险后果。