爱立信扩展了其 NetCloud 安全访问服务边缘 ( SASE ) 产品,新增了无客户端零信任网络访问 ( ZTNA ) 能力。
该公司表示,根据 KPMG 的研究,过去三年中 73% 的组织曾经历至少一次与第三方网络安全事件相关的重大干扰。为应对此类担忧,爱立信的无客户端 ZTNA 服务采用嵌入式隔离技术,旨在增强对这类事件的防护能力。
爱立信称,这项产品非常适合那些需要安全便捷地授予访问权限的企业,同时可消除对虚拟私人网络 ( VPN )、客户端软件或浏览器插件的依赖。Omdia 所属 Enterprise Strategy Group 的首席分析师 John Grady 表示,由于 VPN 的复杂性、管理开销、安全漏洞以及性能问题,传统 VPN 无法满足现代安全访问的需求,因此 ZTNA 成为必然选择。
“依赖代理的 ZTNA 解决方案使得负担繁重的 IT 团队在向需访问公司资源的第三方部署时面临诸多困难。对于采无线为中心战略的组织……无客户端 ZTNA 提供了一种独特的、基于隔离的方法,不仅授予访问指定资产的权限,同时有效防护恶意活动和恶意软件威胁。”他如是说。
爱立信还强调,与常见需要代理或插件的 ZTNA 服务不同,其全新方法完全无代理,通过一个 URL 即可实现安全且隔离的访问。
此外,不同于其他仅依赖访问控制的无客户端产品,NetCloud SASE 能在隔离的云容器中启动应用会话,以支持未管理设备或自带设备 ( BYOD ) 的访问。爱立信指出,这种方式将企业系统与可能不安全的设备完全隔离,阻断恶意软件向企业内部传播。
这一功能旨在赋能组织,以更高安全性将第三方和 BYOD 用户连接至授权资源。基于爱立信现有的客户端型 ZTNA 服务,该产品为在动态、无线优先环境中管理受控和未受控设备的精简 IT 团队提供了更大灵活性。
NetCloud SASE 搭载无客户端 ZTNA 的其他关键特点包括:无客户端安全访问;物联网 ( IoT ) / 运营技术 ( OT ) 资产及企业应用保护;基于最小权限原则的细粒度访问;持续风险评估;零信任;单平台管理;以及与现有身份提供商的“无缝”集成。
这意味着,例如承包商和 BYOD 用户可通过无需 VPN、客户端软件或特定浏览器的方式访问隔离的应用,同时未管理用户与企业系统之间的交互会在云容器中进行隔离,从而保障应用免受潜在恶意软件感染。访问权限则通过基于用户角色、设备类型及其他因素的详细策略进行管控,确保用户仅获得所需的访问级别。
实时分析及入侵检测系统/入侵防御系统能够在用户上下文和风险级别变化时即时吊销其访问权限。爱立信声称,该架构独具特色,消除了对静态公网 IP 地址的需求,隐藏所有内部 IP,默认拒绝所有访问,并实现微分段,防止网络内横向移动。
该产品还集成到 NetCloud Manager 中,以便与 5G 无线广域网 ( WWAN )、软件定义广域网以及其他安全访问服务边缘功能共同实现简化部署、可视化和策略执行。
爱立信企业无线解决方案部门 WWAN 和安全负责人 Pankaj Malhotra 表示:“5G 正在推动物联网 ( IoT ) 和运营技术 ( OT ) 资产的激增,而这些资产通常由第三方供应商和承包商监控和维护。与传统 VPN 提供宽泛网络访问且实施复杂相比,NetCloud ZTNA 提供了一种简便且基于策略的解决方案,确保用户按照最小权限原则获得隔离的资源访问。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。