微软数据安全总经理:AI数据安全、风险管理领域存在“巨大”的合作伙伴机会

微软数据安全、隐私和合规总经理Herain Oberoi称,围绕AI和安全开展的工作“对于合作伙伴来说是一个巨大的机会”——尤其是在帮助客户了解AI风险、构建解决这些风险的应用、以及围绕新攻击面构建仪表板和报告等领域。

微软数据安全、隐私和合规总经理Herain Oberoi称,围绕AI和安全开展的工作“对于合作伙伴来说是一个巨大的机会”——尤其是在帮助客户了解AI风险、构建解决这些风险的应用、以及围绕新攻击面构建仪表板和报告等领域。

Oberoi在接受采访时强调了这些方法,认为这些方法可以帮助首席信息安全官(CISO)和类似的领导角色与公司董事会和CEO进行沟通,从而快速推动AI创新。

对于那些客户不太愿意采用AI产品的解决方案提供商,Oberoi的建议是关注在客户竞争之后进入AI实验阶段并进一步落后的风险。

“我们承认这(AI)具有极大的破坏性,”Oberoi说。“而降低风险的一个简单方法就是,你不需要在生产中推广。但如果你不尝试,你就没有学习。如果你坐在场边看着别人做实验,你的学习机会只会更少。通过观察别人,你能学到的东西是有限的。真正的学习来自于实践。”

总部位于纽约的解决方案提供商Troinet公司首席执行官Wayne Roye在最近的一次采访中表示,最近他和客户探讨了安全和AI策略是专注于数据治理。

对于Roye来说,数据治理更具主动性,解决了“AI可能接触和看到我(客户)可能不知道的信息。”

Oberoi谈到了微软几个值得信赖的AI计划所涉及的领域,对于这家位于华盛顿州雷德蒙德的科技巨头拥有40万成员的生态系统解决方案提供商来说,这些领域尤为重要。

微软最近几天宣布推出了AI产品组合的各种安全更新,包括针对Copilot+ PC Recall功能的新安全架构、Azure AI Content Safety中用于实时修复幻觉问题的校正功能。

值得注意的是,去年Oberoi重返微软,担任了目前的职务。此前,他在竞争对手Okta公司担任营销和战略高级副总裁约一年时间,在云计算竞争对手AWS担任数据库、分析和区块链营销总经理约四年时间。

根据Oberoi在微软旗下社交媒体网络LinkedIn的账户显示,之前他在微软任职约12年,2017年离职时担任的是微软大数据和机器学习产品组合(包括Azure机器学习)产品营销高级总监。

以下是Oberoi关于给AI数据安全合作伙伴带来机会的更多观点。

您给微软安全解决方案提供商在AI安全方面的建议是什么?

我们和我们的合作伙伴共同都有巨大的机会为这个领域的客户提供帮助。这是一个相对较新的领域,每周都在发生变化。……我会说,在某种程度上,我们感到有责任尽可能地提供框架和最佳实践。

在某些情况下,我们还需要提供工具和功能来帮助合作伙伴和客户。……目前,大家都在部署或至少在评估AI。因此,AI在组织中发挥作用的方式是,董事会会问CEO,“你的AI策略是什么?你将如何颠覆或者重塑?”

然后CEO会关注高管层。在我的领域,在高管层中,我们会与首席安全官进行交谈。

在某些情况下,他们还要为更广泛的风险负责。因此,他们试图理解……我该如何界定风险?他们不想被视为说“不”的人,他们想成为推动者。

因此,我们一直在尝试通过这项“值得信赖的AI”计划,开始帮助CISO以及风险领导者理解,我们如何看待风险?

关于可信赖的AI计划,合作伙伴应该了解哪些信息?

这个计划实际上包含两个部分,包含了我们作为一家公司在构建AI系统时做出的承诺,这是我们的AI系统是安全的、私密的原因。

这些承诺包括了我们在“Secure Future Initiative”中所讨论的内容,例如我们的隐私原则,我们说,您的数据是您的数据,我们永远不会使用您的数据来训练我们的基础模型——诸如此类。

然后还有负责任的AI原则,其中包括安全、防止有害内容、偏见等。

因此,我们做出的承诺和我们为客户提供的功能,在这个背景下思考问题,以便他们可以对他们构建的应用做同样的事情——这很有帮助。

听起来这项计划对合作伙伴来说是一个机会?

在(该计划的)所有领域,我们的合作伙伴都有机会,帮助客户了解风险,然后开发应用帮助客户以非常非常具体的方式处理这些风险,这些方面都是有机会的。

接下来谈谈安全性……当我们考虑组织必须考虑的一些安全风险时——显然,数据安全、治理、合规性等问题经常出现——AI应用本质上是非常以数据为中心的。

我喜欢帮助客户构建框架,是因为如果你考虑安全方面,现有的攻击面包括你的应用、你的数据、你的端点、你的网络、你的云。

因此,你有产品和功能可以提供针对这些不同攻击面的安全性。随着AI系统的出现,就有了新的攻击面是你须考虑到的。

比如AI模型本身、实际的提示和响应,内容中是否包含敏感信息,都必须考虑……像LangChain这样的编排框架。

因此,如果是安全态势管理方面,你的LangChain版本中是否包含任何漏洞?我怎么知道呢?

然后是数据本身。你用来训练模型的数据、用来微调模型的数据、用来为模型打下基础以防止幻觉的数据,所有这些数据都是你必须保护的。

因此,你看到新型的攻击是提示和响应中的提示注入攻击、越狱尝试或数据中毒……这些例子都是我们正在考虑的风险类型。

合作伙伴应该如何看待AI监管环境?

很多新法规即将出台,例如在EMEA(欧洲、中东和非洲)实施的欧盟AI法案。

在美国,有更多的NIST(美国国家标准与技术研究所,隶属于美国商务部)AI风险管理框架。……然后,正如我之前所说,这些法规正在发生变化。

因此,客户会说,帮我跟上法规的变化。我怎么知道我今天构建的系统将来是否符合法规?……我们(微软)承认,这就是关于如何考虑风险的问题。

这就是关于如何将其分类,以便你可以掌握它。然后说,我们想要采取方法解决这个问题……我们试图在这方面进行规范。

你必须考虑——有一个准备阶段,然后是围绕风险的发现阶段,然后是保护和治理阶段。我想说准备和发现是连续的,但保护和治理是相辅相成的。

有所准备,意味着,你是否已经完成了全面的身份和身份治理方面的工作和控制。像Entra(以前称为Microsoft Azure Active Directory或Azure AD)这样的产品就是我们用来解决这个问题的功能之一。

或者我们经常看到的一个问题,你是否已经考虑过数据分类和标记?元数据管理呢?血统,所有这些。...这就是微软数据丢失预防工具Purview所实现的功能。

合作伙伴在发现、保护和治理阶段发挥怎样的作用?

发现意味着,我是否可以看到组织中使用的AI应用?我是否可以看到通过组织中这些AI应用的提示和响应共享的敏感数据?然后谁可以访问什么?

因此,即使只是了解共享了多少数据并具有这种可见性。……这对合作伙伴来说是一个巨大的机会,因为合作伙伴找到我们说,我们一直在为客户构建仪表板,以便他们能够发现和了解哪些敏感数据处于危险之中,或者哪些应用正在使用中。

一旦我们向他们展示这种仪表板,他们就会看到风险,就无法忽视风险,必须采取行动。因此,一旦你必须采取行动,就可以开始分解问题并真正取得进展。

合作伙伴在这里发挥着关键作用,因为你可以通过多种不同方式构建特定领域或特定行业的自定义报告或自定义仪表板,帮助组织内的领导者了解:我所关注的风险面有多大?

然后是保护和治理阶段。保护包括以下内容:现在你正在制定数据丢失预防、策略和控制等政策,正在为数据安全态势管理设置控制,以了解我的配置中是否存在漏洞。

你正在采取威胁防护等措施,但会把威胁防护扩展到AI工作负载,以防范诸如提示注入、越狱等问题。

最后,在治理方面,例如,我们在Purview中提供了我们称为合规管理器的功能,你可以在其中根据特定法规进行自我评估,查看自己在特定法规方便的合规性如何。

然后它会给你提供一些建议,以及你需要采取的后续步骤,以改善你的合规性分数。因此,引入欧盟AI法案、NIST AI风险管理框架等法规,都是我们一直在做的事情,为了确保产品中的监管支持包括了AI领域正在发生的所有最新的和最大的变化。

能告诉我一些关于仪表板的更多信息吗?

仪表板实际上是……我们对安全态势管理和数据安全态势管理看法的一种延伸。

因此,数据安全态势管理不仅限于AI。……但你可以深入研究,好的,告诉我生成式AI应用的具体提示和响应。

告诉我,里面有害内容吗?或者里面有敏感数据吗?像Defender for Cloud(微软的云安全态势管理(CSPM)、云工作负载保护(CWP)和开发运营(DevOps)安全工具)这样的工具让客户能够看到我的任何应用的风险。

它不一定是AI应用程序。但是现在你可以具体深入研究,例如对于生成式AI应用,我可能还有其他风险因素,我认为这些因素可能会改变这些应用的风险评分。...我们可以将现有产品扩展到AI工作负载,因为这样做很容易。

但是,回到我之前的观点,在某些情况下,你会遇到新的攻击面,针对这些新的威胁载体,我们正在构建全新的功能。...在过去的一年里,我们推出了大量功能,首先就是针对Microsoft 365的Copilot。

从合作伙伴的角度来看,很多与Purview相关的M365 Copilot,现在扩展到了自定义AI应用上比如Azure、Azure AI、Azure OpenAI。

这两个领域都是我们扩展现有控件、构建更多控件的方面,然后可见性部分实际上是给了他们一个起点。

如果客户表示采用AI还为时过早,他们希望先看到变化速度稳定下来,那么对于解决方案提供商,您有什么建议吗?

在微软,我们有强大的成长心态企业文化,这意味着,如果你不进行试验和失败,就无法从中学习。...我们承认这(AI)具有极大的颠覆性。

降低风险的一种简单方法是,你不需要在生产中推广。但是,如果你不进行试验,就无法从中学习。如果你坐在场边看着别人试验,你学习机会就越来越少。通过观察别人,你只能学到这么多。真正的学习来自实践。

坦率地说,我不知道我是否遇到过没有进行某种试验的客户。其中一部分原因是,当你进行试验时,你会了解它,你也会更好地控制风险。

这更像是一个功能——你想以多快的速度行动起来?在你所在的行业中,即使这个行业在历史上可能不是一个技术领先的行业。

我曾与一家矿业公司的CISO进行了沟通……他面临的挑战之一是,我们开发的技术应该在那些重型机械中使用50年,所以这些技术的发展速度不会那么快。

但即使在这种情况下,他们也在研究AI,他们会问,我如何超越我今天所做的事情?我肯定会鼓励他们进行试验,主要是从这样的角度来看,如果你不做,你就不会学到东西。失败是这个过程的其中一部分。

鉴于技术和监管环境变化如此之快,您会犹豫是否要使用“面向未来”一词来形容AI吗?

我实际上并不使用面向未来这个词,其中一部分原因是我们不知道未来会是什么样子。……你可以对整个事情持乐观态度,也可以持悲观态度。

显然,在微软,我们是非常乐观的。而且……我们认为这可以真正地推动以前没有变革的领域发生变革,甚至可以增加国家的国内生产总值。

但为了实现这一点,我们的心态应该更多的是学习、试验和创造,而不是恐惧和冒险。降低风险这个部分极其重要,这是我们在芯片和安全方面的工作重点。但真的……我们如何在这种可能改变游戏规则的推动力方面成为推动者?其中一种方法就是开始使用它并从中学习。

来源:至顶网网络与安全频道

0赞

好文章,需要你的鼓励

2024

10/03

21:52

分享

点赞

邮件订阅