流量可视化解决方案领导厂商Gigamon(纽交所代码:GIMO)近日宣布推出首款能够在10Gb、40Gb和100Gb网络上实现全面可视化和规模化安全智能功能的高性能设备GigaVUE-HC3。该产品扩展了Gigamon可视化平台和GigaSMART®技术,具有更高的计算和吞吐性能,可对网络中海量动态数据进行管理、保护和分析。
无论是在本地部署还是在云环境中,越来越多的动态数据在企业网络中以更快的速度传输。数据量之大已经超过了监测工具和安全工具的处理能力,而且随着攻击的不断升级,安全团队不得不面对这一现实:复杂程度越来越高、成本越来越大、越来越难以操控。高性能网络(40Gb和100Gb)中的安全和管理控制需要一种快速识别“兴趣数据”的新方法,同时允许在最相关和最有价值的数据流中执行计算密集型任务,如SSL/TLS解密,元数据提取和目标应用检查。
Gigamon GigaVUE-HC3通过提供规模化的智能可视化直接解决这些挑战,并使IT和安全企业能够:
Gigamon产品副总裁Ananda Rajagopal表示:“那些需要处理大量网络流量的企业,愈来愈担心由高速和分布式基础设施所带来的攻击面问题,以及给网络安全团队带来的挑战。在这种网络环境下管理网络流量可不仅仅是为实现可视化和管控,还要能够发现问题,正如大海捞针那样。GigaVUE-HC3是业界首款可提供规模化智能可视性的平台。”
关于GigaVUE-HC3
Gigamon H系列的最新产品GigaVUE-HC3为10Gb、40Gb和100Gb网络提供规模化的智能可视性。这一市场领先的高容量可视性节点可提供:
伴随GigaVUE-HC3的推出,Gigamon现可提供从GigaVUE-HC1到GigaVUE-HC3的全系列模块化可视性节点,使企业能够进一步扩展其Gigamon可视化平台的性能和容量,实现对物理基础设施扩展和公有云的覆盖。
GigaVUE-HC3已于日前全面上市。
好文章,需要你的鼓励
模型上下文协议(MCP)服务器是连接概率性大语言模型和确定性微服务工作流的关键节点,充当推理引擎与外部数据工具的翻译层。在生产环境中部署AI智能体时,MCP服务器承担着定义智能体能力、管理上下文数据和执行操作三大核心职责。由于其非确定性客户端特性,传统单元测试无法有效验证,需要通过端到端测试来确保系统可靠性,这使得MCP服务器成为智能体架构中不可或缺的关键基础设施。
SimWorld是由UCSD等多所顶尖院校联合开发的革命性AI仿真平台,基于虚幻引擎5构建了具备真实物理规律的虚拟城市环境。该平台支持无限扩展的程序化世界生成和自然语言交互,让AI智能体能够在复杂环境中学会生存、合作和竞争,为通用人工智能的发展提供了前所未有的训练平台。
英伟达推出Vera Rubin计算平台,专为驱动具备思考和推理能力的智能AI系统而设计。该平台采用NVL72液冷机架系统,集成六种芯片包括新Vera CPU和Rubin GPU。相比Blackwell架构,Rubin GPU推理速度提升5倍,训练速度提升3.5倍。平台还推出推理上下文内存存储解决方案,性能提升5倍。此外,英伟达还发布了面向自动驾驶的开源Alpamayo模型系列。
浙江大学联合华为提出C2DLM,这是一种因果概念引导的扩散语言模型,通过自动提取因果关系并融入注意力机制来增强AI推理能力。相比传统方法,C2DLM在推理任务上平均提升1.31%-12%,训练效率提高3.2倍,为解决语言模型推理能力不足开辟了新路径。