在本周举行的谷歌云虚拟安全峰会上,该公司分享了其在人工智能安全防护方面的扩展愿景的更多细节,包括部署AI能力来改进弹性,推出新的智能体安全运营中心(SOC)功能,以及保护客户未来的AI开发项目。
谷歌领导层表示,这是终端用户组织重新定义其安全态势并降低AI投资风险的"前所未有"的机会。
该公司对智能体SOC的愿景是一种"集成体验",其中基于AI智能体优化数据管道来简化检测工程工作流程,自动化警报分类、调查和响应,在这一系统中,智能体能够协调其行为以支持共同目标。
谷歌今年4月在谷歌云Next大会上首次宣布的新警报调查智能体今天为部分用户进入预览阶段,据称该智能体将丰富事件信息,分析命令行界面(CLI),并基于谷歌云Mandiant部门人类分析师的工作构建进程树。
生成的警报摘要将附带为人类防护者提供的建议,谷歌相信这可能有助于防护者大幅减少手动工作和响应时间。
"我们对在整个安全产品组合中向市场推出的新功能感到兴奋,这些功能不仅帮助组织继续利用AI进行创新,还能利用AI保护组织安全,"谷歌云安全AI产品负责人Naveed Makhani告诉《计算机周刊》。
"我们宣布的最大安全改进之一是在AI保护解决方案内部。随着组织快速采用AI,我们正在开发新功能来帮助他们保持项目安全,"Makhani补充说。
在这一领域,谷歌今天在其Agentspace和Agent Builder工具中宣布了三项新功能,希望能保护客户开发的AI智能体。
这些功能包括新的智能体清单和风险识别功能,帮助安全团队更好地发现其智能体中的潜在漏洞、配置错误或可疑交互;更好地防护提示注入和越狱攻击;以及在安全指挥中心内增强威胁检测。
此外,谷歌还增强了今年早些时候推出的统一安全(GUS)产品,包括安全运营实验室功能,为威胁解析、检测和响应提供实验性AI工具的早期访问权限;仪表板以更好地可视化、分析和处理安全数据;以及将Chrome浏览器Android版本中的安全功能移植到苹果的iOS系统。同时,Trusted Cloud在合规性、态势管理、风险报告、智能体身份和访问管理(IAM)、数据保护和网络安全方面获得了多项更新。
AI咨询服务
基于Mandiant数据显示其人类分析师越来越多地看到客户对AI应用网络安全指导的需求,谷歌还将在Mandiant顾问提供的整体解决方案集中引入更多AI特定产品。
"Mandiant咨询现在提供基于风险的AI治理、AI环境加固的部署前指导,以及AI威胁建模。与Mandiant合作可以使组织在拥抱AI技术的同时降低安全风险,"谷歌表示。
Q&A
Q1:谷歌的智能体SOC系统有什么特点?
A:谷歌的智能体SOC系统是一种"集成体验",通过AI智能体优化数据管道来简化检测工程工作流程,能够自动化警报分类、调查和响应,智能体之间可以协调行动以支持共同的安全目标。
Q2:新的警报调查智能体能做什么?
A:该智能体能够丰富事件信息,分析命令行界面,基于谷歌云Mandiant部门人类分析师的工作构建进程树,并生成包含建议的警报摘要,帮助防护者大幅减少手动工作和响应时间。
Q3:谷歌如何保护客户开发的AI智能体安全?
A:谷歌在Agentspace和Agent Builder工具中推出三项新功能:智能体清单和风险识别功能帮助发现潜在漏洞和配置错误;更好地防护提示注入和越狱攻击;以及在安全指挥中心内增强威胁检测能力。
好文章,需要你的鼓励
Google为其BigQuery数据仓库新增对话式分析功能,允许企业数据团队和业务用户通过自然语言询问数据问题,从而加速AI用例的数据分析。该智能体目前处于预览阶段,可在BigQuery新增的智能体中心找到。此外,Google还推出了构建、部署和管理自定义智能体的工具,通过API端点支持跨应用和运营工作流。这些功能扩展了现有的文本转SQL能力,支持上下文对话分析。
UCL与华为联合研发的MT-GRPO多任务训练方法,解决了AI语言模型在同时学习多种推理技能时的关键难题。该方法通过动态调整任务权重和比例保持采样器,确保AI在各类任务上均衡发展,避免传统方法中强项越强、弱项被忽视的问题,实现最差任务性能提升16-28%,训练效率提高50%。
Anthropic宣布其AI聊天机器人Claude将保持无广告状态,与竞争对手OpenAI形成鲜明对比。后者上月开始在ChatGPT低价版本中测试广告。Anthropic认为在AI对话中插入广告与其打造"真正有用助手"的目标不符,并担心广告会影响助手提供客观建议。OpenAI目前计划在对话旁显示横幅广告,但面临巨大财务压力。Anthropic选择专注于企业合同和付费订阅的商业模式。
BMW Group与奥格斯堡大学联合开发了CAR-bench,这是首个专门评测汽车语音助手在真实环境中表现的基准系统。研究发现,即使是最先进的GPT-5模型,在面对模糊指令和缺失信息时也存在严重的一致性问题,经常编造答案而非承认局限性。该系统包含58种工具和19条安全策略,揭示了当前AI助手从实验室到真实应用之间的巨大鸿沟。