总部位于北美的SE2 是一家保险技术和服务公司,旨在帮助客户快速构建和发布支持数字化转型的产品。早在数年前,SE2 就认识到数字化转型带来的机遇。通过IT技术实现快速增长,保护用户数据和账户安全成为其不断追求的目标。通过AWS部署云架构,SE2公司获得了符合业务发展需求的敏捷性与弹性。然而,该公司云端数百个用户安全组设置以及众多有权更改配置的用户,使其必须采用最高级别云端安全管理策略。
近日, SE2 公司技术经理 Saul Schwartz 复盘了与Check Point的合作历程,同时分享了该公司如何通过Check Point CloudGuard实现自动化管理从而保证云端核心数据安全。
SE2公司核心资产
Saul Schwartz表示:“SE2公司最重要战略资产就是客户数据。我们代表客户管理着近 200 万份有效的人寿保险和年金保单, 其中包括相关财务数据,委托管理资产高达 1000 亿美元。其次我们还必须要保护知识产权。我们的业务团队中有一支强大的 DevOps 队伍,他们负责为客户开发和交付数字产品与解决方案,帮助他们实现数字业务转型。因此,我们不仅要获取有关安全态势的深入洞察,还需要一种不影响关键业务开发的治理方法。
SE2公司选择解决方案的主要标准
“在评价安全解决方案时,行业领先的功能与便捷的管理无疑是首要的。” Saul Schwartz进一步强调:“我们公司的IT环境十分复杂,SE2在 AWS 中建立了多账户结构。这些账户中有 500 个 EC2 实例,其中包括数百个安全组以及有权更改配置的多个用户。再加上动态的开发环境,我们必须在不限制创新的情况下寻找维持强大的安全管理能力的方案。”
Check Point CloudGuard 管理解决方案是如何提供帮助?
Saul Schwartz介绍道:“Check Point CouldGuard的价值主要体现在以下三个方面。首先,它可以帮助我们规避不必要的风险。例如,开发人员在测试新功能或产品时可能需要暂时更改安全组。如果用户自发更改安全组,CloudGuard CloudBot 修复功能会将其恢复到原始状态,直到安全团队可以审查请求并评估风险为止。这样,我们可以为用户组提供全面保护,开发人员也可以在一段时间内请求访问安全端口来测试工作负载,同时又不会使公司面临风险。其次,CloudGuard 状态管理解决方案可以使安全性成为重要的推动力量。在开发、运行和测试解决方案时,我们的开发人员需要访问某些配置项目。我们可以定义允许访问并启用自动修复的策略,这样他们就不必依赖我们在特定的时间点进行审查或访问。最后,它的一些选项允许我们实施有利于业务发展的最佳实践。自动合规性检查可以识别任何不符合标准的地方,并自动对其进行补救或向团队发出告警。我可以使用一支团队来统管和保护本地与云端的工作负载。”
解决方案运行效果
在最后总结时Saul Schwartz表示:“部署并运行CouldGuard后,SE2不用再担心配置错误或影子 IT 引发的安全漏洞,安全保护会一直在线。我们的本地和云环境变得全面可视化,自动警报和补救功能也能够透明地处理事件。更重要的是,CloudGuard 安全状态管理解决方案与云安全责任共担模型是一致的,这能够使我们在灵活的云环境中,最大程度保护用户核心数据的安全,使SE2公司能够成为始终被用户信任的数字化转型服务提供商。”
好文章,需要你的鼓励
Google为其BigQuery数据仓库新增对话式分析功能,允许企业数据团队和业务用户通过自然语言询问数据问题,从而加速AI用例的数据分析。该智能体目前处于预览阶段,可在BigQuery新增的智能体中心找到。此外,Google还推出了构建、部署和管理自定义智能体的工具,通过API端点支持跨应用和运营工作流。这些功能扩展了现有的文本转SQL能力,支持上下文对话分析。
UCL与华为联合研发的MT-GRPO多任务训练方法,解决了AI语言模型在同时学习多种推理技能时的关键难题。该方法通过动态调整任务权重和比例保持采样器,确保AI在各类任务上均衡发展,避免传统方法中强项越强、弱项被忽视的问题,实现最差任务性能提升16-28%,训练效率提高50%。
Anthropic宣布其AI聊天机器人Claude将保持无广告状态,与竞争对手OpenAI形成鲜明对比。后者上月开始在ChatGPT低价版本中测试广告。Anthropic认为在AI对话中插入广告与其打造"真正有用助手"的目标不符,并担心广告会影响助手提供客观建议。OpenAI目前计划在对话旁显示横幅广告,但面临巨大财务压力。Anthropic选择专注于企业合同和付费订阅的商业模式。
BMW Group与奥格斯堡大学联合开发了CAR-bench,这是首个专门评测汽车语音助手在真实环境中表现的基准系统。研究发现,即使是最先进的GPT-5模型,在面对模糊指令和缺失信息时也存在严重的一致性问题,经常编造答案而非承认局限性。该系统包含58种工具和19条安全策略,揭示了当前AI助手从实验室到真实应用之间的巨大鸿沟。