3月31日,紫光旗下新华三集团在2018 Navigate 领航者峰会上,联合英特尔一起发布了 400G数据中心解决方案。方案由新华三400G交换机、25G交换机和英特尔最新发布的400G硅光模块组成。大会上,新华三分享了400G核心交换机的标准设计及研发历程,并展望了在新华三大互联战略下400G核心交换机的市场前景。
英特尔中国区通信设备行业总经理 李勇先生(左一)、
英特尔中国数据中心销售集团董事总经理 陈葆立先生(左二)、
新华三集团副总裁 毕首文先生(左三)、
新华三集团数据中心产品总监 陈伯超先生(左四)
核心交换机向来是数据中心乃至整个网络市场上带宽最高的设备。不论是经典的接入、汇聚和核心三层网络架构,还是借助虚拟化等技术实现的扁平化网络,核心交换机都处于网络金字塔的顶端。本次新华三发布的400G旗舰级数据中心交换机,采用了QSFP-DD接口,QSFP-DD也将作为全球以太网交换机400G端口的正式标准,推动核心交换机以及整个网络向新的速率前进。
新华三集团副总裁、产品行销部总经理 毕首文
新华三集团副总裁、产品行销部总经理毕首文表示:“本次峰会期间,新华三大互联全新升级发布了AD-NET 3.0技术战略,而400G核心交换机及其解决方案是AD-NET3.0方案中关键的一环。包括高性能计算、5G的IPRAN、AI以及深度学习等场景对网络的收敛比等主要参数具有非常高的要求,另一方面边缘网络正在实现从25G向40G和100G过渡,随着边缘网络带宽的升级,基于400G核心交换机的核心网络也将拥有巨大需求。”
S12500X-CF高密度400G交换机支持最多576个400G端口全线速转发,使业界以太网核心交换机的性能上限提升400%,可以满足未来三到五年大规模及超大规模云数据中心的核心带宽需求。
在400G核心交换机设计及研发过程中,新华三与QSFP-DD等组织进行了深入的合作。首先作为QSFP-DD组织成员,新华三从400G标准起草之初,就参与到相应的国际组织中,并参与制定了400G的接口电气标准,模块封装形态等规范。相关标准也将作为全球以太网交换机400G端口的正式标准得以广泛应用。
此外,新华三与CWDM8 MSA组织的另一成员英特尔就400G光传输标准进行了长期深入合作,并实现了英特尔400G硅光模块在S12500X-CF高密度400G交换机上的成功商用。
带宽从100G到400G演进的背后,是新华三对从PCB板材的工艺、散热技术、上层软件技术都进行了全面升级。S12500X-CF设备的所有线卡均采用了工业领域最高等级的基板材料,较100G平台产品降低50%,在热解温度等关键指标上也有质的提升。此外,S12500X-CF在软件层面也较上一代产品迭代升级到了最新的版本,多项新华三核心技术被融入S12500X-CF系统。
从硬件工艺到软件效率的全面升级,使得S12500X-CF高密度400G核心交换机在信号质量、收敛比以及软件功能都到达了新的高度。新华三从标准制定到产品的设计和研发过程中展现了超强的技术实力以及生态影响力。
新华三联手英特尔等合作伙伴着手打造了400G整体数据中心解决方案,该方案涉及从接入到核心的每个层面,可以为企业客户提供整个端到端的网络系统搭建及升级改造服务设计,企业用户不仅可以迅速构建新的高速网络架构,同时也能够充分利用原有网络资源,保护其既有投资不会浪费。
作为AD-NET 3.0重要的硬件设备组成部分,S12500X-CF高密度400G核心交换机将配合新华三及其合作伙伴的各类数据中心解决方案,共同推动企业业务应用产生的数据与商业价值之间的路径实现质的缩短。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。