根据Pentera公司发布的《2026年AI与对抗性测试基准报告》显示,大多数安全负责人正在努力用不适合挑战的工具和技能来防御AI系统。
该报告基于对300名美国首席信息安全官和高级安全领导者的调查,研究了组织如何保护AI基础设施,并突出了与技能短缺和依赖不适用于AI时代的安全控制相关的关键差距。
AI系统很少单独部署。它们分层并集成到现有的企业技术中,从云平台和身份系统到应用程序和数据管道。由于所有权分散在不同团队之间,有效的集中监督已经崩溃。
因此,67%的CISO报告对AI在其组织中的使用方式缺乏可见性。没有受访者表示他们拥有完全的可见性;相反,他们承认意识到或接受某种形式的未管理或未授权的AI使用。
在无法清楚了解AI系统在何处运行或它们可以访问哪些资源的情况下,安全团队难以有效评估风险。基本问题,如AI系统依赖哪些身份、它们可以访问什么数据,或者当控制失败时它们如何表现,往往仍然没有答案。
尽管AI安全现在是董事会和执行讨论的常规话题,研究显示最大的挑战并非财务问题。
CISO确定了保护AI基础设施的主要障碍
缺乏内部专业知识(50%)
对AI使用缺乏可见性(48%)
专门为AI系统设计的安全工具不足(36%)
只有17%的人将预算限制视为主要关切。这表明许多组织愿意投资AI安全,但尚未拥有在真实环境中评估AI相关风险所需的专业技能。
AI系统引入了安全团队仍在学习评估的行为,包括自主决策制定、间接访问路径以及系统间的特权交互。在没有正确专业知识和主动测试的情况下,很难评估现有控制是否按预期有效。
在缺乏AI特定最佳实践、技能和工具的情况下,大多数企业正在扩展现有安全控制以覆盖AI基础设施。
研究发现,75%的CISO依赖传统安全控制,如端点、应用程序、云或API安全工具来保护AI系统。只有11%的人报告拥有专门设计用于保护AI基础设施的安全工具。
这种方法反映了在以前技术转变期间看到的熟悉模式,组织最初会适应现有防御措施,然后出现更量身定制的安全实践。虽然这可以提供基本覆盖,但为传统系统构建的控制可能无法考虑AI如何改变访问模式并扩大潜在攻击路径。
综合来看,研究结果表明AI安全挑战源于基础差距,而非缺乏意识或意图。
随着AI成为企业基础设施的核心部分,报告建议组织需要专注于建立专业知识,并改进他们在AI已经运行的环境中验证安全控制的方式。
注:本文由Pentera技术顾问总监Ryan Dory撰写。
Q&A
Q1:为什么大多数CISO对AI系统的使用缺乏可见性?
A:AI系统很少单独部署,它们分层并集成到现有的企业技术中,从云平台和身份系统到应用程序和数据管道。由于所有权分散在不同团队之间,有效的集中监督已经崩溃,导致67%的CISO报告对AI使用方式缺乏可见性。
Q2:保护AI基础设施面临的主要障碍是什么?
A:根据调查,CISO确定的主要障碍包括:缺乏内部专业知识(50%)、对AI使用缺乏可见性(48%)、专门为AI系统设计的安全工具不足(36%)。值得注意的是,只有17%的人将预算限制视为主要关切。
Q3:目前企业如何保护AI系统安全?
A:研究发现,75%的CISO依赖传统安全控制,如端点、应用程序、云或API安全工具来保护AI系统。只有11%的人报告拥有专门设计用于保护AI基础设施的安全工具。这种方法虽然可以提供基本覆盖,但传统控制可能无法应对AI带来的新挑战。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。