AI无处不在,但CISO仍在用过时技能和工具保护它

Pentera最新研究显示,多数安全领导者正在用不适合挑战的工具和技能来防御AI系统。调查覆盖300名美国CISO和高级安全领导者,发现67%的CISO对组织内AI使用情况缺乏充分了解。主要障碍包括内部专业知识不足(50%)、AI使用可见性有限(48%)和缺乏AI专用安全工具(36%)。75%的CISO依赖传统安全控制措施保护AI基础设施,仅11%拥有专为AI设计的安全工具。

根据Pentera公司发布的《2026年AI与对抗性测试基准报告》显示,大多数安全负责人正在努力用不适合挑战的工具和技能来防御AI系统。

该报告基于对300名美国首席信息安全官和高级安全领导者的调查,研究了组织如何保护AI基础设施,并突出了与技能短缺和依赖不适用于AI时代的安全控制相关的关键差距。

AI系统很少单独部署。它们分层并集成到现有的企业技术中,从云平台和身份系统到应用程序和数据管道。由于所有权分散在不同团队之间,有效的集中监督已经崩溃。

因此,67%的CISO报告对AI在其组织中的使用方式缺乏可见性。没有受访者表示他们拥有完全的可见性;相反,他们承认意识到或接受某种形式的未管理或未授权的AI使用。

在无法清楚了解AI系统在何处运行或它们可以访问哪些资源的情况下,安全团队难以有效评估风险。基本问题,如AI系统依赖哪些身份、它们可以访问什么数据,或者当控制失败时它们如何表现,往往仍然没有答案。

尽管AI安全现在是董事会和执行讨论的常规话题,研究显示最大的挑战并非财务问题。

CISO确定了保护AI基础设施的主要障碍

缺乏内部专业知识(50%)

对AI使用缺乏可见性(48%)

专门为AI系统设计的安全工具不足(36%)

只有17%的人将预算限制视为主要关切。这表明许多组织愿意投资AI安全,但尚未拥有在真实环境中评估AI相关风险所需的专业技能。

AI系统引入了安全团队仍在学习评估的行为,包括自主决策制定、间接访问路径以及系统间的特权交互。在没有正确专业知识和主动测试的情况下,很难评估现有控制是否按预期有效。

在缺乏AI特定最佳实践、技能和工具的情况下,大多数企业正在扩展现有安全控制以覆盖AI基础设施。

研究发现,75%的CISO依赖传统安全控制,如端点、应用程序、云或API安全工具来保护AI系统。只有11%的人报告拥有专门设计用于保护AI基础设施的安全工具。

这种方法反映了在以前技术转变期间看到的熟悉模式,组织最初会适应现有防御措施,然后出现更量身定制的安全实践。虽然这可以提供基本覆盖,但为传统系统构建的控制可能无法考虑AI如何改变访问模式并扩大潜在攻击路径。

综合来看,研究结果表明AI安全挑战源于基础差距,而非缺乏意识或意图。

随着AI成为企业基础设施的核心部分,报告建议组织需要专注于建立专业知识,并改进他们在AI已经运行的环境中验证安全控制的方式。

注:本文由Pentera技术顾问总监Ryan Dory撰写。

Q&A

Q1:为什么大多数CISO对AI系统的使用缺乏可见性?

A:AI系统很少单独部署,它们分层并集成到现有的企业技术中,从云平台和身份系统到应用程序和数据管道。由于所有权分散在不同团队之间,有效的集中监督已经崩溃,导致67%的CISO报告对AI使用方式缺乏可见性。

Q2:保护AI基础设施面临的主要障碍是什么?

A:根据调查,CISO确定的主要障碍包括:缺乏内部专业知识(50%)、对AI使用缺乏可见性(48%)、专门为AI系统设计的安全工具不足(36%)。值得注意的是,只有17%的人将预算限制视为主要关切。

Q3:目前企业如何保护AI系统安全?

A:研究发现,75%的CISO依赖传统安全控制,如端点、应用程序、云或API安全工具来保护AI系统。只有11%的人报告拥有专门设计用于保护AI基础设施的安全工具。这种方法虽然可以提供基本覆盖,但传统控制可能无法应对AI带来的新挑战。

来源:The Hacker News

0赞

好文章,需要你的鼓励

2026

03/18

12:05

分享

点赞

邮件订阅