专注网络与安全融合的全球网络安全领导者 Fortinet®(NASDAQ:FTNT)近日宣布,全新推出外形紧凑、坚固耐用的防火墙设备 FortiGate Rugged 70G,专为OT环境提供优化增强的安全组网功能和5G网络连接服务。全新防火墙产品搭载5G双调制解调器和具备卓越安全计算能力和能效的Fortinet第五代安全处理器(SP5),为用户提供无与伦比的网络性能、业内领先的FortiGuard AI驱动安全服务和高可用性。
OT/IT融合:呼唤OT环境组网、安全变革
随着工业4.0和智能制造的推进,OT环境对组网技术的需求正在快速增长。传统的OT环境通常与IT环境相隔离,但现在两者之间的融合趋势越来越明显。同时,随着物联网(IoT)设备的爆炸式增长,OT环境需要能够处理大量数据和高并发连接的组网技术。这意味着对网络的带宽、可靠性和延迟等方面的要求都在不断提高。
不仅如此,由于能够提供前所未有的网络连接速度和低延迟,使得5G成为支持实时数据传输和工业自动化的理想选择。在OT环境中,5G技术可以用于实现远程监控、实时数据分析和预测性维护等应用。这些应用可以显著提高生产效率、降低运营成本并增强设备的可靠性。此外,5G技术还支持大规模的设备连接和数据传输,这对于实现工业互联网(IIoT)和智能制造等应用至关重要。
同时,随着OT环境与IT环境的融合,以及物联网设备的普及,网络安全威胁也在不断增加。因此,对能够保护OT环境免受网络攻击的安全技术的需求正在快速增长。这包括零信任理念、网络微分段、安全信息和事件管理(SIEM)、终端安全解决方案等。此外,由于OT环境的特殊性,还需要专门针对OT环境的安全解决方案,如工业防火墙、工业入侵检测系统等。
全新FortiGate:无缝融合组网、安全和5G
总而言之,随着OT环境网络架构中远程位置的日益涌现,企业必须支持并保护其中的大量敏感流量和数据,同时保持高可用性。以往,企业通常选择叠加部署各类单点安全产品,以满足这些远程位置独特的网络、安全和连接需求。然而,这种传统变通方法通常令网络中的基础设施难以实现有效管理且性能欠佳,不仅管理成本日益高昂,且安全风险日益升级。
凭借融合5G双调制解调器、AI驱动安全性和零信任等多种强大功能的一体化设备,Fortinet全新发布的 FortiGate产品可提供最前沿的安全组网创新技术,确保设备在恶劣环境中持续可靠运行。其中,配备5G双调制解调器的FortiGate Rugged 70G,可助力用户安全守护并精简现有基础设施,提高业务效率并节省成本,即便在难以亲临的远程位置,也能提供出色的用户体验。
作为一款融合多项功能的全新防火墙,FortiGate Rugged 70G首次融合5G网络连接功能,是Fortinet Rugged系列下一代防火墙(NGFW)产品组合中的又一典范之作。其可全方位满足远程OT环境组网、安全防护以及高效的网络连接需求。该设备不仅全面融合企业级威胁防护以及高性能组网功能(如SD-WAN和零信任网络访问),还可提供行业领先的无线广域网功能,实现高可用性。
FortiGate Rugged 70G主要优势功能包括:
IDC安全与信任研究经理Pete Finalle表示:“远程位置和恶劣环境日益成为企业发展和业务拓展的重要一环,但为其构建安全网络连接和防护体系同样面临严峻的技术和预算挑战。凭借将组网和丰富的安全功能无缝融合至一款可经受极端条件考验的一体化设备中,Fortinet解决方案可帮助用户轻松解决此类难题。融合5G双调制解调器功能的FortiGate是Fortinet的又一创新力作,该功能可为远程位置提供冗余连接,确保高可用性和不间断服务。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。