至顶网网络频道 01月09日 综合消息:“网络新引擎 AI赢未来”华为网络春季新品发布会在北京顺利召开,华为发布了业界首款面向AI时代的数据中心交换机CloudEngine 16800,定义了AI时代数据中心交换机的三大特征,创新性地引入AI技术,普惠AI助力客户加速智能化转型。
华为网络产品线总裁胡克文发布面向AI时代的数据中心交换机CloudEngine 16800
华为GIV(Global Industry Vision)2025预测,企业对AI的采用率将从2015年的16%达到2025年86%,AI成为企业重塑商业模式、助力决策和提升客户体验的关键推动力。华为网络产品线总裁胡克文表示:“万物互联的智能世界正加速到来,数据中心正成为5G、人工智能等新型基础设施的核心。华为率先将AI技术引入数据中心交换机,引领数据中心网络从云时代迈入AI时代。”
随着AI时代的到来,AI算力受到数据中心网络性能的影响,正在成为AI商用进程的关键瓶颈,传统以太网千分之一的丢包率,将导致数据中心的AI算力只能发挥50%;同时,预计全球年新增数据量将从2018年的 10ZB 猛增到2025年180ZB( 即1800亿TB),现有100GE为主的数据中心网络已无法支撑数据洪水的挑战;另外,随着数据中心服务器规模的增加,以及计算网络、存储网络和数据网络三网融合,传统人工运维手段已难以为继,亟需引入创新的技术提升智能化运维的能力。
胡克文表示,“AI时代的数据中心交换机具有三大特征:内嵌AI芯片、单槽48 x 400GE、以及向自动驾驶网络演进的能力。”
业界首款内嵌AI芯片数据中心交换机,100%发挥AI算力
CloudEngine 16800是业界首款搭载了高性能AI芯片的数据中心交换机,承载独创的iLossLess智能无损交换算法,实现流量模型自适应自优化,从而在零丢包基础上获得更低时延和更高吞吐的网络性能,克服传统以太网丢包导致的算力损失,将AI算力从50%提升到100%,数据存储IOPS(Input/Output Operations Per Second)性能提升30%。
业界最高密度单槽位48 x 400GE,满足AI时代5倍流量增长需求
CloudEngine 16800全面升级了硬件交换平台,在正交架构基础上,突破超高速信号传输、超强散热、高效供电等多项技术难题,使得单槽位可提供业界最高密度48端口400GE线卡,单机提供业界最大的768端口400GE交换容量,交换能力高达业界平均的5倍,满足AI时代流量倍增需求。同时,单比特功耗下降50%,更绿色节能。
使能自动驾驶网络,秒级故障识别、分钟级故障自动定位
CloudEngine 16800基于内置的AI芯片,可大幅度提升“网络边缘”即设备级的智能化水平,使得交换机具备本地推理和实时快速决策的能力;通过本地智能结合集中的FabricInsight网络分析器,构建分布式AI运维架构,可实现秒级故障识别和分钟级故障自动定位,使能自动驾驶网络加速到来。同时,该架构还可大幅提升运维系统的灵活性和可部署性。
华为数据中心网络领域总经理王雷表示,“华为CloudEngine系列数据中心交换机已在全球6000多家客户成功商用,助力金融、互联网、运营商等行业客户数字化转型。华为推出的面向AI时代的CloudEngine 16800数据中心交换机将助力客户加速智能化转型,实现普惠AI,共同构建万物互联的智能世界。”
好文章,需要你的鼓励
模型上下文协议(MCP)服务器是连接概率性大语言模型和确定性微服务工作流的关键节点,充当推理引擎与外部数据工具的翻译层。在生产环境中部署AI智能体时,MCP服务器承担着定义智能体能力、管理上下文数据和执行操作三大核心职责。由于其非确定性客户端特性,传统单元测试无法有效验证,需要通过端到端测试来确保系统可靠性,这使得MCP服务器成为智能体架构中不可或缺的关键基础设施。
SimWorld是由UCSD等多所顶尖院校联合开发的革命性AI仿真平台,基于虚幻引擎5构建了具备真实物理规律的虚拟城市环境。该平台支持无限扩展的程序化世界生成和自然语言交互,让AI智能体能够在复杂环境中学会生存、合作和竞争,为通用人工智能的发展提供了前所未有的训练平台。
英伟达推出Vera Rubin计算平台,专为驱动具备思考和推理能力的智能AI系统而设计。该平台采用NVL72液冷机架系统,集成六种芯片包括新Vera CPU和Rubin GPU。相比Blackwell架构,Rubin GPU推理速度提升5倍,训练速度提升3.5倍。平台还推出推理上下文内存存储解决方案,性能提升5倍。此外,英伟达还发布了面向自动驾驶的开源Alpamayo模型系列。
浙江大学联合华为提出C2DLM,这是一种因果概念引导的扩散语言模型,通过自动提取因果关系并融入注意力机制来增强AI推理能力。相比传统方法,C2DLM在推理任务上平均提升1.31%-12%,训练效率提高3.2倍,为解决语言模型推理能力不足开辟了新路径。