至顶网网络频道 综合消息:2019 年 6 月 17 日 ,全球领先的网络安全解决方案提供商 Check Point 软件技术有限公司(纳斯达克股票代码:CHKP)宣布推出 CloudGuard Log.ic 云原生威胁防护和安全智能解决方案。借助 CloudGuard Log.ic,客户可以在弹性云环境中查看每个数据流和审核跟踪记录,并了解云数据和活动,从而加快取证调查流程。
CloudGuard Log.ic 可有效检测云异常,阻止威胁和入侵,并支持客户通过情境丰富的可视化对 AWS 等公有云基础架构中的安全事故进行全面调查。Log.ic 是 Check Point CloudGuard 云安全产品家族的新成员。
Cyber Security Insiders 为 Check Point 开展的一项云安全调查发现,IT 组织面临的最大云运营安全问题是合规性 (34%) 和基础设施安全性缺乏可视性 (33%)。虽然大多数组织 (54%) 表示他们的云实例没有遭到黑客入侵,但令人惊讶的是,25% 的组织并不知道他们是否遭到过攻击。15% 的组织确定他们至少经历过一次云安全事故。
CloudGuard Log.ic 的核心是一个信息富化引擎,它可以整合来自各种来源的数据,包括 VPC 流日志和 AWS CloudTrail,从而在公有云环境中建立对安全性的情境感知。安全团队和 DevOps 团队现在可以使用这一交钥匙解决方案加快事故响应和威胁搜索速度,审查安全策略并跨多个帐户实施。CloudGuard Log.ic 还可以与 Splunk 和 ArcSight 等第三方 SIEM 解决方案相集成。
市场研究公司 451 Research 的 Fernando Montenegro 指出:“云环境的一项主要不同之处是具有短暂性。随着虚拟机、容器或无服务器功能工作负载和实例的执行,过去被视为静态的信息都不再值得信赖,比如 IP 地址。毫无疑问,我们发现了人们对新型安全工具的需求,他们希望这些工具‘生来’就可以理解新概念,并能够补充来自流日志、负载均衡器和其他云原生组件的信息。这样,IT 部门可以在系统运行时获得更详细的事件视图,从而更准确地了解环境并更严格地实施安全规则。”
CloudGuard Log.ic 的一些主要特性包括:
* 通过与 Check Point 行业领先的 ThreatCloud 恶意 IP 情报源集成,实现高级威胁防御。
* 轻松创建由可疑网络和用户活动、违规事件和安全性错误配置触发的自定义警报。
* 通过分析分配给用户、用户组和角色的属性来跟踪联合事件,因为配置变更具有跟踪记录,并与个人或角色相关联。
* 支持在电子邮件和各种 ITMS 工具(如 ServiceNow、PagerDuty、Jira 等)中为直接下属定义和安排重要事件、统计和流量报告。
* CloudBots 自动修复功能可用于自动处理特定的恶意活动警报,并自动执行隔离等后续步骤,或者进行标记以便进一步调查。
Check Point 软件技术公司产品管理和营销副总裁 Itai Greenberg 表示:“CloudGuard Log.ic 为我们的企业客户提供了涵盖云环境中所有活动的强大可视性和丰富情境,加之可帮助识别恶意威胁或检测入侵的数据源,它能够有效防止第五代大规模网络安全攻击。CloudGuard Log.ic 的诞生为 Check Point 客户带来了检测和预防云中高级威胁的最新安全保护利器。”
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。