9月22日,深信服对外展示安全GPT落地成果与2.0升级能力。来自各行业权威嘉宾代表:美的集团首席信息安全官(CISO)兼软件工程院院长、欧洲科学院院士(MAE)、IEEE Fellow、IET Fellow、ACM杰出科学家、AAIA Fellow刘向阳、北汽福田汽车股份有限公司集团信息安全部高级经理兼欧辉新能源网络安全部高级经理张志强、IDC咨询有限公司研究总监王军民、数世咨询创始人李少鹏,站在多元视角,探讨了安全大模型的落地应用效果及趋势分析。
深信服科技研发总经理梁景波、深信服安全攻防专家演示了安全GPT 2.0升级的亮点能力,其中“智能驾驶”可帮助用户安全运营自主值守,实现30秒研判遏制威胁,单一事件平均闭环时间缩减96.6%。
安全GPT 2.0升级
开启安全运营“智能驾驶”旅程
致力于用智能化手段提升威胁对抗的效果和效率,赋能组织对抗强敌,全新升级的深信服安全GPT,实现了从“1.0 辅助驾驶”到“2.0 智能驾驶”的演进。这背后,不变的是安全GPT对0day漏洞、APT隐蔽入侵等威胁的检测研判效果,变化的是从“分钟级闭环,十倍级提效,百万级降本”,到“秒级闭环,百倍提效,千万级降本”的效率和能力跃升。
基于安全GPT 1.0的高级威胁检测、安全事件解读、热门漏洞排查能力,安全GPT 2.0智能驾驶能力再进阶,目前可承载超80%的告警分析、事件调查、资产排查等工作。
升级1:支持对终端安全告警的分析研判与命令行解读
安全GPT结合网端数据聚合分析,提供解读能力,支持对终端命令行、威胁情报、恶意文件进行解读,具备5年专业分析人员级别的解读效果。
升级2:简单点击提示问题,即可完成告警研判闭环
安全GPT具备判断告警是否攻击成功、告警误报的分析解读能力,并通过提供多个推荐问题,引导用户连续点击提示问题,即可完成一个完整告警研判的闭环工作。
安全GPT升级“智能驾驶”能力,犹如一个虚拟的安全专家,坐镇用户日常安全运营现场。基于思维链理解安全事件,安全GPT可自主地对所有告警和事件进行研判、处置、总结,即可实现绝大多数告警的闭环。这一过程,人类专家不需要与GPT进行复杂的对话,仅按需进行审核或复查。安全GPT利用大模型的研判、处置速度,真正实现30秒研判遏制威胁,单一事件平均闭环时间缩减96.6%。
升级1:自主研判告警,自动处置完成
当出现安全告警时,安全GPT通过解析数据包、查询情报,可自主研判,对事件进行定性,并自动化执行封堵隔离、影响面调查的措施,实现一键根除和安全加固,并生成事件报告。整个过程,安全运营人员只需要审核关键环节,查看事件报告即可,无需进行更多操作。
升级2:多模交互,思维链确保研判处置可解释
安全GPT支持文字、图表等多模交互实现事件解读,并创新生成安全研判处置思维链,清晰传递告警和事件的分析研判思考过程。安全运营人员无需打开多个界面查询信息,全局态势一目了然。
升级3:自然语言对话,分析过程可解释
对于任何告警和事件,安全GPT除了提供思维链的研判处置逻辑外,可通过自然语言问答对话,为安全人员提供针对思维链任一环节的深入解答,辅助进一步研判。
安全GPT技术赋能目标:
革命性提升安全建设的效果和效率
以“革命性提升安全建设的效果和效率”为目标,深信服安全GPT的技术落地应用,可分为两种:
此外,安全GPT现已全面赋能安全托管服务MSS,服务专家与“数字化助理”组合成为最佳拍档,实现人机共智,提质增效。
目前,安全GPT支持SaaS化及本地化多种部署方式,满足用户不同需求。
一直以来,深信服秉持“开放平台+领先组件+云端服务”的安全架构新范式,利用开放的安全平台聚合能力,简化部署,将安全的孤岛编织为群岛。利用技术领先的各类组件,实现各个场景的最佳安全防护效果,充分与平台及其他组件互联协同。利用云化的服务,持续快速获得安全能力的生长,并为安全效果兜底。
人工智能是改变安全攻防格局的革命性技术,AI的能力应该在安全运营者手中应用的更快、更深,跑赢AI在攻击者手中的演变速度。深信服认为AI 的能力应该全面布局在平台、组件,并且运用到服务中,不管是安全GPT大模型,还是AI的相对传统的应用,都应该充分考虑被应用的可能性。
未来,安全GPT能力还将持续升级演进,致力于革命性提升安全建设的效果和效率,助力每一位用户“安全领先一步”。
好文章,需要你的鼓励
来自耶路撒冷希伯来大学的研究团队开发了WHISTRESS,一种创新的无需对齐的句子重音检测方法,能够识别说话者在语音中强调的关键词语。研究者基于Whisper模型增加了重音检测组件,并创建了TINYSTRESS-15K合成数据集用于训练。实验表明,WHISTRESS在多个基准测试中表现优异,甚至展示了强大的零样本泛化能力。这项技术使语音识别系统不仅能理解"说了什么",还能捕捉"如何说"的细微差别,为人机交互带来更自然的体验。
这项研究提出了"力量提示"方法,使视频生成模型能够响应物理力控制信号。研究团队来自布朗大学和谷歌DeepMind,他们通过设计两种力提示——局部点力和全局风力,让模型生成符合物理规律的视频。惊人的是,尽管仅使用约15,000个合成训练样本,模型展现出卓越的泛化能力,能够处理不同材质、几何形状和环境下的力学交互。研究还发现模型具有初步的质量理解能力,相同力量对不同质量物体产生不同影响。这一突破为交互式视频生成和直观世界模型提供了新方向。
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。