总部位于北美的SE2 是一家保险技术和服务公司,旨在帮助客户快速构建和发布支持数字化转型的产品。早在数年前,SE2 就认识到数字化转型带来的机遇。通过IT技术实现快速增长,保护用户数据和账户安全成为其不断追求的目标。通过AWS部署云架构,SE2公司获得了符合业务发展需求的敏捷性与弹性。然而,该公司云端数百个用户安全组设置以及众多有权更改配置的用户,使其必须采用最高级别云端安全管理策略。
近日, SE2 公司技术经理 Saul Schwartz 复盘了与Check Point的合作历程,同时分享了该公司如何通过Check Point CloudGuard实现自动化管理从而保证云端核心数据安全。
SE2公司核心资产
Saul Schwartz表示:“SE2公司最重要战略资产就是客户数据。我们代表客户管理着近 200 万份有效的人寿保险和年金保单, 其中包括相关财务数据,委托管理资产高达 1000 亿美元。其次我们还必须要保护知识产权。我们的业务团队中有一支强大的 DevOps 队伍,他们负责为客户开发和交付数字产品与解决方案,帮助他们实现数字业务转型。因此,我们不仅要获取有关安全态势的深入洞察,还需要一种不影响关键业务开发的治理方法。
SE2公司选择解决方案的主要标准
“在评价安全解决方案时,行业领先的功能与便捷的管理无疑是首要的。” Saul Schwartz进一步强调:“我们公司的IT环境十分复杂,SE2在 AWS 中建立了多账户结构。这些账户中有 500 个 EC2 实例,其中包括数百个安全组以及有权更改配置的多个用户。再加上动态的开发环境,我们必须在不限制创新的情况下寻找维持强大的安全管理能力的方案。”
Check Point CloudGuard 管理解决方案是如何提供帮助?
Saul Schwartz介绍道:“Check Point CouldGuard的价值主要体现在以下三个方面。首先,它可以帮助我们规避不必要的风险。例如,开发人员在测试新功能或产品时可能需要暂时更改安全组。如果用户自发更改安全组,CloudGuard CloudBot 修复功能会将其恢复到原始状态,直到安全团队可以审查请求并评估风险为止。这样,我们可以为用户组提供全面保护,开发人员也可以在一段时间内请求访问安全端口来测试工作负载,同时又不会使公司面临风险。其次,CloudGuard 状态管理解决方案可以使安全性成为重要的推动力量。在开发、运行和测试解决方案时,我们的开发人员需要访问某些配置项目。我们可以定义允许访问并启用自动修复的策略,这样他们就不必依赖我们在特定的时间点进行审查或访问。最后,它的一些选项允许我们实施有利于业务发展的最佳实践。自动合规性检查可以识别任何不符合标准的地方,并自动对其进行补救或向团队发出告警。我可以使用一支团队来统管和保护本地与云端的工作负载。”
解决方案运行效果
在最后总结时Saul Schwartz表示:“部署并运行CouldGuard后,SE2不用再担心配置错误或影子 IT 引发的安全漏洞,安全保护会一直在线。我们的本地和云环境变得全面可视化,自动警报和补救功能也能够透明地处理事件。更重要的是,CloudGuard 安全状态管理解决方案与云安全责任共担模型是一致的,这能够使我们在灵活的云环境中,最大程度保护用户核心数据的安全,使SE2公司能够成为始终被用户信任的数字化转型服务提供商。”
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。