高性能光学组件供应商 Fujitsu Optical Components (FOC) 的 ZR/ZR+ 模块、白盒交换机/路由器解决方案提供商 UfiSpace 以及网络解决方案公司 DriveNets 宣布完成了多项 DriveNets Network Cloud 软件在 UfiSpace 白盒上的测试和认证。
像 Fujitsu 这样的 ZR+ 模块,当与分解式网络解决方案结合时,据称能为网络公司带来经济效益,最大化模块传输距离并扩大服务提供商的选择范围。
DriveNets/FOC 的组合解决方案旨在确保 DriveNets 网络操作系统 (DNOS) 不仅支持将 FOC 的 ZR/ZR+ 模块插入白盒,还在 UfiSpace 白盒上支持这些模块。它还支持这些模块在多种操作模式下运行,包括 ZR 和 ZR+。
这三家公司表示,他们正在合作,通过将三个通信层合并为单一平台并消除对独立光学转发器的需求,为网络运营商带来显著的成本节约。这也有助于减少运营商的硬件占用空间,降低运营开销、占地面积和能源使用。
FOC 光学解决方案还包括来自 NTT Innovative Devices Corporation 的组件,该组件旨在通过创新的基于光学的基础设施技术克服现有基础设施的限制,实现高速、大容量通信。
这一战略与 NTT 主导的创新光无线网络计划 (IOWN) 保持一致,该计划旨在满足未来超连接商业世界的不断增长的需求,提供利用光子技术的超高速、大容量互联网服务的未来全球通信基础设施。
从技术角度来看,IOWN 包括三个主要技术领域:全光网络 (APN)、数字孪生计算和认知基础。包括终端在内的网络和信息处理基础设施旨在使用专注于光学的技术提供高速、大容量通信,以及大量计算资源。
DriveNets、UfiSpace 和 Fujitsu Optical Components 都是 IOWN 全球论坛的成员,该论坛推广 IOWN,共享未来通信基础设施的愿景。这个组合解决方案将成为 IOWN 网络解决方案的一部分,提供capable 400Gbps 长距离传输的交换机/路由器。
Fujitsu Optical Components 的企业官员 Yukiharu Fuse 表示:"我们与 DriveNets 的合作使运营商能够构建更高效的网络,并简化端到端网络管理。这种整合不仅确保 FOC 的 ZR/ZR+ 模块能够被 DriveNets Network Cloud 软件无缝调整、配置和管理,还保证了一个经过充分测试和验证的集成解决方案。"
UfiSpace Japan 负责人 Norry Lin 补充说:"我们在开放分解式网络方面的共同愿景已经在行业中产生了重大变化,使运营商在构建网络方面拥有更大的灵活性,并允许他们大幅提高网络效率。今天的公告更进一步扩大了服务提供商的选择,并减少了硬件占用空间。"
DriveNets 全球战略联盟副总裁 Nir Gasko 表示:"ZR+ 模块的最新进展简化了相距数百公里的数据中心之间的连接,同时创建了一个融合的网络基础设施,减少了运营商需要管理的网络元素数量。像 Fujitsu Optical Components 提供的这样的创新 ZR+ 模块,与分解式网络解决方案相结合,为全球运营商带来了巨大的经济效益。"
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。