2022 年 9 月,网络安全解决方案提供商 Check Point® 软件技术有限公司(纳斯达克股票代码:CHKP)宣布推出 Check Point Horizon 平台,一款以预防为中心的统一安全管理和防御平台,整合了托管预防和响应 (MDR/MPR)、扩展预防和响应 (XDR/XPR) 以及 Events 主动式管理解决方案。所有功能均可一键激活,并享有业内顶级分析师、研究专家和创新 AI 技术的支持。
如今的网络威胁形势十分严峻,问题一触即发。在我国,网络安全已经成为国家级战略发展项目之一。在刚刚过去的2022年互联网安全宣传周上,网信办相关负责人表示:网络安全理念与科技的推广,可推动全社会网络安全意识和防护技能的提升,对于维护国家网络安全、保障人民群众合法权益具有重要意义。同时,Check Point 近来的报告显示,全球网络攻击激增 42%,勒索软件成为威胁企业的头号杀手。受多个工具孤岛中无休止的告警和误报的干扰,加之对攻击向量的认识不足、摸底不清,尽管安全团队天天忙于对付漏洞、防止损害蔓延,网络攻击仍然不降反增。而网络经验匮乏和持续的技能短缺无疑使这一问题变得更糟了。
在此背景之下,企业建立具备 24/7 全天候监控、响应和威胁搜寻能力的安全运营中心 (SOC) 成为当务之急。但是对于大多数企业来说,这样做既复杂又费钱。此外,在如此严峻的挑战面前,SOC 仍然略显捉襟见肘,因为业内的策略是以检测和响应为主,并不擅长防御。
IDC 安全服务研究副总裁 Craig Robinson 表示:“当今市场上的许多现有 MDR 解决方案只负责检测和管理网络事件,真正具备防御能力的是少之又少。在鱼龙混杂的 MDR 市场中,以预防为中心的 Check Point Horizon 犹如一股清流,打破了行业现状。”
Check Point 软件技术有限公司的威胁管理负责人兼首席安全顾问 Dan Wiley 表示:“出色的防御工具与业内顶级分析师、研究专家和创新 AI 技术的支持珠联璧合,是 Horizon 取得成功的重要秘诀。Check Point Horizon 是涵盖整套基础架构的统一解决方案,能够极大地改善网络防御能力并防止攻击发生,同时降低开销和总体拥有成本。”他继续指出:“任何 MDR 服务的关键都在于人员,预防是我们深入骨髓的安全理念。借助 Horizon MDR/MPR,客户可以直接享受我们的事件响应团队的支持,从他们每年处理 3,000 多个事件的丰富经验中受益。如果用户没有资源来运行可靠的 24/7 全天候 SOC,Check Point将为用户代劳。”
Check Point Horizon 将以安全为中心的方法融入到了安全运营中,为 SOC 团队提供了所需的工具和服务,让他们能够以更少的资源实时防止攻击。这些工具包括:
旧金山公共卫生部首席信息安全官 (CISO) Marc Upchurch 表示:“作为一家资源有限的公共卫生公司,我们必须要与日常成本低、投资回报高的网络安全厂商合作。Check Point 致力于投资开发优秀的产品和服务,在易于管理的综合安全平台上提供以预防为中心的集成解决方案,这一持续不断的付出在我们的环境取得的成效中可见一斑。虽然我们的团队规模不大,但在 Horizon MDR/MPR 的帮助下,我们能够协调网络安全目标与患者安全计划,24x7x365 全天候不中断地为常住和旅居旧金山的人们提供服务。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。