专注于推动网络与安全融合的全球网络安全领导者 Fortinet®(NASDAQ:FTNT)近日宣布了两项重大收购交易,分别收购了领先的云原生应用程序保护平台(CNAPP)开拓者Lacework,以及内部风险和数据保护领域的佼佼者Next DLP。这两项收购不仅进一步巩固了Fortinet在网络与安全融合领域的领导地位,还显著提升了其在云安全和数据泄露防护方面的能力。
收购Lacework,构建全面AI驱动型云安全平台
自2024年8月1日起,Fortinet成功完成了对Lacework的收购。Lacework作为云安全和云原生应用程序保护平台(CNAPP)的开拓者,其创新的AI技术为客户提供了高度集成且强大的云安全解决方案。
Fortinet创始人、董事长兼首席执行官谢青(Ken Xie)表示:“Lacework的加入,是我们对广大客户承诺的又一重要兑现,即通过创新解决方案为本地和云环境提供一致且高效的安全性。Lacework的云原生平台与Fortinet Security Fabric的无缝集成,将构建一个基于单一供应商的全面且全架构的AI驱动型云安全平台,为客户带来前所未有的安全体验。”
此次收购不仅为Fortinet带来了Lacework的先进技术,还包含了225项授权专利和专利申请,极大地丰富了Fortinet在云安全和人工智能技术领域的知识产权储备。同时,一支经验丰富的销售团队和才华横溢的工程师团队也将加入Fortinet大家庭,共同推动公司在全球范围内的业务扩展和技术创新。
收购Next DLP,强化数据泄露防护能力
紧随Lacework收购之后,Fortinet于2024年8月5日宣布了对Next DLP的收购,该交易已即时生效。Next DLP作为内部风险和数据保护领域的领先者,其SaaS云原生数据保护平台与Fortinet基于AI/ML的异常检测和分类领先技术的无缝融合,为客户提供了强大的数据泄露防护能力。通过此次收购,Fortinet将进一步增强其在企业数据泄露防护(DLP)领域的市场地位,并在终端和SASE(安全访问服务边缘)集成DLP市场巩固其领导地位。
谢青强调:“收购Next DLP是我们战略布局中的重要一环,它标志着我们在数据泄露防护领域的又一重要突破。Next DLP的加入将大幅提升我们的数据防护能力,帮助客户在SASE及终端部署的各个环节更加高效地管理与防范内部风险。”
Next DLP首席执行官Connie Stack表示:“我们很高兴能够与Fortinet携手,共同推动数据安全领域的创新与发展。通过此次收购,我们将把Next DLP的卓越技术与Fortinet的市场领导地位相结合,为全球用户提供更加全面、高效的数据安全解决方案。”
凭借持续的技术创新,Next DLP 已备受行业分析师广泛认可。在 2023 年 Gartner® 数据泄露防护市场指南 和 2023 年 Gartner® 内部风险管理解决方案市场指南中,Next DLP 获评代表供应商殊荣。
作为为企业提供业内领先统一 SASE 解决方案承诺的一部分,Fortinet 计划集成 Next DLP 创新技术,为 Fortinet 安全服务边缘(SSE)产品系列新增高级数据泄露防护功能,并在 Fortinet Security Fabric 安全平台中全新集成内部风险和数据保护功能。
展望未来,持续引领网络安全新纪元
随着数字化转型的加速推进,网络安全和数据保护已成为企业不可或缺的重要组成部分。Fortinet通过连续收购Lacework和Next DLP,不仅增强了自身的技术实力和市场份额,还为客户提供了更加全面、智能的安全防护方案。未来,Fortinet将继续秉承创新为先的核心理念,不断推动网络安全领域的技术进步和发展,为全球用户构建更加安全、可信的数字世界。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。