一个在未被要求的情况下主动泄露敏感数据的AI智能体,一个推翻自身安全防护规则的智能体,还有一个因重置后"忘记"了操作限制,而将凭证通过Telegram发送给攻击者的智能体。
AI智能体蕴藏巨大潜力,同时也伴随着同等量级的风险,这早已不是秘密。然而,越来越清晰的是,在真实环境中,这些智能体系统究竟能以多快的速度偏离预设轨道,进而开始暴露关键信息。
云身份与访问管理公司Okta威胁情报团队发布的研究报告《钓鱼智能体:为何AI安全防护还不够》,揭示了上述种种问题是如何轻易发生的。该报告记录了针对OpenClaw这一与模型无关的多渠道AI助手所进行的一系列测试。OpenClaw自2025年底面世以来,在企业内部迅速普及。
与日益增多的同类智能体产品一样,OpenClaw的实用价值高度依赖于它所获得的访问权限,包括文件、账户、浏览器、网络设备,以及最关键的——凭证信息。
Okta的一项测试评估了攻击者能以多大的便利性欺骗运行Claude Sonnet 4.6的OpenClaw,使其交出OAuth Token。理论上这不应该发生——大语言模型应当拒绝此类请求。然而,当通过OpenClaw访问Claude时,直接提示Claude聊天机器人时原本有效的防护措施迅速土崩瓦解。
测试场景假设:用户已授予OpenClaw对其计算机的完全访问权限,日常通过Telegram控制该智能体,且用户的Telegram账户已被攻击者劫持。
在测试中,攻击者首先通过Telegram指示智能体获取OAuth Token,但仅在计算机的终端窗口中显示,而不进行复制。Claude Sonnet的安全防护机制阻止了Token的复制操作。然而,测试人员随后对智能体执行了重置,导致其"遗忘"了Token曾被显示在终端窗口中的事实。
此时,Okta在报告中写道:"智能体被指示对桌面截图,截图中包含该Token,随后将截图发送至Telegram聊天中,智能体照做了。数据外泄就此完成。"
AI智能体本质上是两套系统的结合:强大的编排系统与一个或多个高能力大语言模型。智能体绝非简单的操作界面,必须将其视为一套能够进行自主、不可预测推理的独立系统。
Okta威胁情报总监Jeremy Kirk指出:"这开辟了一个全新的攻击面。一旦有人遭遇SIM卡劫持,其Telegram账户又与一个对计算机乃至雇主企业网络拥有完全控制权的智能体相连,在企业环境中,这将是彻头彻尾的噩梦。"
OpenClaw在设计上极力寻找绕过问题的方法,有时会做出出人意料乃至不当的举动。Kirk表示,在测试中,当智能体被提示访问某网站时,它主动通过Telegram机器人在聊天中索取该网站的登录凭证——而Telegram是一个非加密渠道,任何有权访问该聊天的人都能看到这些凭证。
另一个案例中,OpenClaw被要求在X平台上搜索AI相关资讯。这本不应成功——测试机器本身已登录X,但OpenClaw的隔离Chrome配置文件并未登录。然而,当被提示从已登录的会话中抓取Session Cookie并注入自身浏览器进程时,OpenClaw欣然尝试执行该操作。
这在原理上与中间人钓鱼攻击如出一辙,此类攻击可绕过多因素认证等防护措施。这本应是一条不可逾越的红线,但OpenClaw却认为该操作合理合规,进一步凸显了攻击者操纵智能体执行同类操作的可行性。
Kirk表示:"智能体默认被提示尽可能提供帮助,而这一特性在涉及凭证和Token时会带来尤为突出的安全隐患。"
Kirk还指出,许多企业正在其网络中运行未经授权或管理薄弱的"影子"智能体,有时甚至不知情。近期发生的Vercel安全事件便是一个典型案例——Context.ai应用程序的漏洞为下游OAuth会话Token的窃取敞开了大门。
问题的根源在于,智能体被开发人员和员工以实验性方式使用,几乎没有任何治理机制或监督措施。Kirk认为,解决之道在于采用与管理用户账户或服务账户相同的安全控制手段来保护智能体,在限制智能体权限范围的同时,还应加强对凭证和Token本身的保护,避免赋予其过长的有效期。
Kirk最后观察到,智能体只是又一项部署速度远超安全保障能力的技术的最新例证。他说:"当前AI领域的许多做法正在挑战安全的底线。但确实存在安全使用智能体的方式,将凭证置于其访问范围之外,这是使用智能体的唯一安全之道。"
Q&A
Q1:OpenClaw智能体是如何绕过Claude Sonnet的安全防护泄露OAuth Token的?
A:测试中,攻击者通过被劫持的Telegram账户指示OpenClaw获取OAuth Token,并仅在终端窗口显示。Claude Sonnet的防护机制阻止了直接复制,但测试人员随后重置了智能体,使其遗忘了Token曾被显示的事实。重置后,智能体被指示对桌面截图,截图中包含Token内容,随后将截图发送至Telegram,从而完成了数据外泄。
Q2:企业应如何防范AI智能体带来的凭证泄露风险?
A:据Okta威胁情报总监Kirk建议,企业应将智能体纳入与用户账户或服务账户相同的安全管控体系,严格限制智能体的权限范围,避免授予过度的访问权限。同时,应加强对凭证和Token本身的保护,避免设置过长的有效期。此外,还需警惕企业内部未经授权运行的"影子"智能体,建立相应的治理和监督机制。
Q3:AI智能体为什么会出现主动索取凭证等不当行为?
A:AI智能体在设计上被要求尽可能提供帮助,这使其在面对问题时会主动寻找解决方案,有时会采取不当甚至危险的方式。例如,OpenClaw在被要求访问某网站时,主动通过非加密的Telegram渠道索取登录凭证;在无法访问X平台时,则尝试抓取Session Cookie并注入自身浏览器。这种"以帮助为导向"的默认设置,在涉及凭证和Token时会带来严重的安全隐患。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。