10月11~14日,在杭州举办的全球云计算TOP级峰会——2017云栖大会上,阿里巴巴集团发布了全新的25G数据中心网络架构,该架构是在规模部署其第一代25G架构后的重大架构演进,未来将统一承载全线业务。
作为阿里巴巴数据中心网络设备的供应商之一,锐捷网络与阿里巴巴基础设施事业群针对网络架构进行了全面合作,开发配套全新的网络产品,覆盖接入、汇聚及核心设备。在本次云栖盛会上,锐捷网络应邀首次发布了多款面向阿里巴巴网络架构的配套交换机新品,不仅在性能上较上代产品实现了飞跃,可提供基于RDMA(Remote Direct Memory Access,远程直接内存访问)的无损以太网低延时传输和基于硬件的可视化能力,更能在运营上大幅降低整网的单比特成本。
图:25G数据中心网络架构发布现场
作为全球领先的互联网公司,此次阿里巴巴发布的数据中心网络架构,将对业界网络技术及未来应用的发展带来深远影响,同时也成为业内众多网络设备厂商关注的焦点。
锐捷网络深刻理解阿里巴巴数据中心网络所面对的挑战,不仅要满足全球最大的交易和支付平台所需的性能,还要兼顾飞速发展的云计算网络所需要的拓展性和灵活性。
基于上述的特性和要求,锐捷网络精心打造了新一代交换机产品,包括:
25G接入交换机RG-S6510-48VS8CQ
图:RG-S6510-48VS8CQ
RG-S6510-48VS8CQ作为25G网络接入交换机,采用1U设计,提供48个25G网络接口,固化8个100G接口。该产品采用Broadcom Trident3芯片全新设计,相比上一代25G产品,其缓存能力提升8倍。支持基于硬件的网络可视化运维特性,大大简化网络运维、提升运维效率。此外,该芯片支持丰富的硬件可编程特性,满足未来更多业务特性的扩展。
100G接入交换机RG-S6510-4C
图:RG-S6510-4C
RG-S6510-4C采用2U设计,提供4个模块化插槽,可以灵活扩展8个100G接口板卡、24个25G+2个100G接口板卡及16个40G接口板卡。通过整体提供32个100G接口,满足未来更高密度、更大业务流量的业务需求,实现服务器100G网卡的高速接入。通过扩展25G板卡,可以实现48个25G接口+20个100G接口的组合,实现25G业务的1:1收敛接入,满足特殊业务需求。该产品采用Broadcom Trident3芯片全新设计,相比上一代产品,其缓存能力、RDMA、可视化等能力都实现了大幅度增强。
汇聚交换机RG-S6520-64CQ
图:RG-S6520-64CQ
RG-S6520-64CQ采用Broadcom Tomahawk 2芯片设计,是迄今为止业界最高密度的100G BOX设备。可以满足Server POD基于业务需求灵活调整收敛比,同时支持硬件的可视化运维能力,满足全网端到端可视化运维的实现,同时可作为中小型数据中心核心与中大型数据中心汇聚设备。
核心交换机RG-N18000-X系列
图:RG-N18000-X系列
RG-N18000-X系列是锐捷网络2015年发布的100T平台“零背板”数据中心核心交换机,针对阿里巴巴全新一代网络架构,锐捷网络发布全新的100G接口板卡M18000X-32CQ-DB,相比上一代产品单卡功耗降低40%、整机功耗降低30%,综合应用成本降低20%。支持关键表项的灵活调整及路径可视化、延迟可视化特性,实现整体投入成本的降低和运维效率的提升。
锐捷网络自2016年开始参与阿里巴巴数据中心网络架构建设,RG-N18000-X系列核心交换机、RG-S6500系列25G交换机和RG-S6220-H系列万兆交换机等产品均已应用于阿里巴巴多个数据中心集群。
未来,锐捷网络将进一步与阿里巴巴携手共进,让永不止步的创新,为中国互联网与云计算产业的发展开山架桥。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。