智能体AI已不再局限于少数先锋企业。这些系统现在在企业环境中广泛运行,能够访问资源、做出决策并在最少人工监督下采取行动。但这种自主性带来了全新的风险类别。为可预测的、以人为中心的工作流程构建的安全框架,无法有效处理以机器速度运行、修改API并独立移动敏感数据的智能体。
在UiPath发布的2025年智能体AI报告中,超过半数(56%)的企业高管将安全性列为首要关切,其次是合规性、成本和集成复杂性。Gartner预测,到2027年,可能会有超过40%的智能体AI项目因治理薄弱和风险管理不当而被取消。
"每个新的AI智能体既是资产也是新的风险。保护智能体AI是一项根本性的新挑战,我们需要将可预测的防护栏和政策集成到本质上不确定的系统中。这是安全历史上最大的挑战之一,"思科总裁兼首席产品官Jeetu Patel表示。"在与安全和基础设施领导者的对话中,分歧往往围绕传统安全范式和团队能多快适应这一新现实。"
如今,安全对话正从保护数据转向防护AI系统现在自主做出的决策。随着企业急于升级网络以支持智能体AI和物联网,许多企业在此过程中可能忽视了安全性。根据思科2025年IT网络领导者调查,多达97%的企业表示网络升级对其AI和物联网计划的成功至关重要。然而,风险也很高;仅一次严重中断就可能给全球经济造成近1600亿美元的损失。
"在企业方面,认知度正在快速提升——但不太明显的是,业务部门内部正在发生多少活动,往往安全团队并未完全参与其中,"The Futurum Group副总裁兼网络安全实践负责人Fernando Montenegro说。"他们中的许多人已经理解智能体AI的紧迫性,但安全团队需要早期参与对话。"
**新的防御策略:企业级AI驱动安全**
传统防御措施在根本上与智能体AI的需求不兼容。随着API调用成倍增长和智能体行为变得更加不透明,传统监控工具正在努力跟上节奏。缺乏实时可见性和控制,智能体可能表现出不可预测甚至危险的行为。现在需要的是新的能力:持续审计能力、透明度和快速修复。
为了缓解智能体系统日益增长的安全风险,整个行业的科技巨头现在正在构建治理和安全解决方案,以满足智能体AI的规模和速度需求。例如,微软推出了AI驱动的安全助手,能够在有限人工干预下检测和中和威胁。谷歌云强调其AI服务的可追溯性和审计能力。IBM正在将身份治理应用于AI系统。
同样,云网络和安全公司思科正在将安全性更深入地嵌入网络,深入到硅层。该公司最近推出了其AgenticOps策略,将实时可观察性、零信任框架和AI原生操作结合到单一企业架构中。
"技术和安全社区正在认识到,要治理这个新生态系统,我们需要专门构建的框架,结合安全性、深度跨域上下文和持续监督,而不仅仅是附加控制,"思科AI软件和平台高级副总裁DJ Sampath说。"三件事不可谈判:人在回路中的监督、每个决策的跨域上下文以及从硅到软件每一层都内置的安全性。"
这个模型的核心是思科的深度网络模型,这是一个在数十年遥测数据上训练的特定领域大语言模型。它旨在为安全团队配备自然语言工具,以实时监控、调查和响应事件。本质上,这是为防御AI而构建的AI。
该公司还推出了通用零信任网络访问框架,将基于身份的控制扩展到包括委托授权,允许用户安全地向可信服务提供商授予访问权限而不共享凭据;基于邻近性的防钓鱼抵抗,验证请求来自附近的可信设备;以及对新兴模型上下文协议(MCP)的支持,这是一个允许AI系统跨不同应用程序安全共享上下文的新标准。
"我们正在用AI为网络做未来防护,使其能够大规模识别和调解智能体行为,"Patel解释道。"安全必须与AI智能体本身一样快速和适应性强。"
Patel指出,智能体AI正在驱动前所未有的操作速度和复杂性水平,虽然行业正在取得进展,但最大的瓶颈现在出现在网络层。"AI规模扩展的许多主要限制因素,如功耗和低效GPU利用率,可以通过更高效的网络和编排直接解决,确保数据在需要的时候出现在需要的地方,"他说。
基于这一愿景,思科在收购Splunk后正在深化其集成。思科防火墙的遥测数据现在直接馈送到Splunk的安全平台,实现自动化响应手册并关联整个智能体应用堆栈的威胁信号。
**智能体AI需要新的网络安全使命和哲学转变**
在这个新时代将蓬勃发展的组织是那些接受一个简单真理的组织:如果AI是企业创新的引擎,那么AI驱动的安全必须是其转向系统。
Montenegro说,当今围绕智能体AI最关键的工作涉及在两个基础领域建立深入、透明的理解:首先,组织如何运作,即其关键业务流程、利益相关者关系和期望结果。其次,现代AI系统,特别是智能体,如何在技术层面运作,抽象概念如何转化为数学,支持这些算法需要什么基础设施,以及它们如何在系统内交互。
"一旦这两个基础到位,组织将处于更强的位置来评估和部署跨多个用例的智能体工作流程,"他补充道。
下一代网络安全不会由它对威胁反应的速度来定义,而是由它预测威胁的智能程度来定义。这个未来已经在形成。
"预训练奠定了基础,但在智能体时代这还不够。我们需要实时反馈循环。系统必须随着智能体交互和适应而持续学习和加固,"思科的Sampath说。"AgenticOps翻转了剧本:现在AI智能体不仅在生成洞察,它们还在实时主动防御和适应网络。"
Q&A
Q1:AgenticOps是什么?它有什么特点?
A:AgenticOps是思科推出的一项策略,将实时可观察性、零信任框架和AI原生操作结合到单一企业架构中。它的核心是让AI智能体不仅生成洞察,还能实时主动防御和适应网络,实现人在回路中的监督、跨域上下文决策和从硅到软件每一层都内置安全性。
Q2:为什么传统安全防护无法应对智能体AI?
A:传统防御措施在根本上与智能体AI的需求不兼容。随着API调用成倍增长和智能体行为变得更加不透明,传统监控工具正在努力跟上节奏。智能体以机器速度运行、修改API并独立移动敏感数据,缺乏实时可见性和控制时可能表现出不可预测甚至危险的行为。
Q3:深度网络模型如何帮助企业应对智能体AI安全挑战?
A:深度网络模型是思科开发的特定领域大语言模型,在数十年遥测数据上训练。它为安全团队配备自然语言工具,以实时监控、调查和响应事件。本质上这是为防御AI而构建的AI,能够识别和调解智能体行为,实现AI驱动的网络防护。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。