当软件开始像人类安全分析师那样思考和行动,只不过更快且无需睡眠时,会发生什么?这正是当前网络安全领导者面临的现实:随着人工智能,特别是代理型 AI,加速了向自主威胁响应和实时决策的转变。
这些数字超级用户正在改变游戏规则。代理型系统能够扫描海量数据集、触发自动化工作流程,并在数秒内发现漏洞,这迫使各组织不得不重新审视从数据治理到平台战略的所有方面。正如 CrowdStrike Inc. 的创始人、总裁及首席执行官 George Kurtz(见图)所言,随着对手开始应用相同工具以及网络罪犯与国家间的界限日趋模糊,保持领先的紧迫性从未如此迫切。
CrowdStrike 的 George Kurtz 与 theCUBE 谈论代理型 AI。
“我们仍处在初期阶段,我认为每个人都在努力搞清楚如何使用它、如何控制数据以及如何以安全的方式获取结果,” Kurtz 如是说。“说实话,在很多领域,困扰大家夜不能寐的正是无处不在的 AI 狂野西部……这让许多人熬夜思考。”
在 RSAC 2025 会议期间,Kurtz 与 theCUBE 的 Dave Vellante 在 theCUBE(SiliconANGLE Media 的直播工作室)的独家直播中进行了对话。他们讨论了人工智能,尤其是代理型 AI,如何通过实现自主威胁检测与响应来改变网络安全格局,同时也带来了必须采用适应性、数据驱动策略应对的新风险。(* 以下为披露说明。)
代理型 AI 带来了新的挑战与机遇
与早期的聊天机器人或基础助手不同,代理型 AI 系统设计上是根据既定政策、工作流和实时数据自主采取行动。据 Kurtz 介绍,CrowdStrike 的 Charlotte AI 超越了传统提示功能,能够在极少的人为干预下实现自动化事件响应、威胁调查和运营成果。
他补充道:“我们考虑的已不止是聊天机器人,而是把它接入工作流,为客户带来实实在在的效果。您可以让这类 AI 代理代表您工作,主动进行信息调研和整合;主动审视事件并进行总结,基本上能够模拟分析师的工作,而不需要所有的提示。”
Kurtz 解释称,这一新一代 AI 同样会带来风险,尤其是当对手也采用相同工具时。生成式 AI 和大语言模型正在帮助威胁行为者迅速识别并武器化漏洞,迫使防御者以史无前例的速度作出适应。
他说:“基本上,您可以利用众多不同的大语言模型来协助制造新的攻击。它们可以帮助识别漏洞所在,实际上还能创造并武器化新的漏洞。我们所看到的是,各公司修补这些零日漏洞的时间窗口正急剧缩小。安全性实际上就是时间的函数。”
随着攻击者手段日益复杂,平台也必须不断进化以保持优势。CrowdStrike 的应对策略是推行一种经过精心策划的开放式方案,重点强调高保真数据和合作伙伴整合。与那些倾向于推广封闭式大型平台的厂商不同,Kurtz 认为 CrowdStrike 的战略注重的是自身优势和系统互操作性。
Kurtz 表示:“我们并不完全认同那种思路,因为在安全领域……没有一个平台可以统治一切,事实就是如此。但我们可以从其他第三方采集数据,再与我们自有的 CrowdStrike 数据结合,从而在威胁狩猎、人工智能和成果上为用户提供无缝体验。”
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。