高性能光学组件供应商 Fujitsu Optical Components (FOC) 的 ZR/ZR+ 模块、白盒交换机/路由器解决方案提供商 UfiSpace 以及网络解决方案公司 DriveNets 宣布完成了多项 DriveNets Network Cloud 软件在 UfiSpace 白盒上的测试和认证。
像 Fujitsu 这样的 ZR+ 模块,当与分解式网络解决方案结合时,据称能为网络公司带来经济效益,最大化模块传输距离并扩大服务提供商的选择范围。
DriveNets/FOC 的组合解决方案旨在确保 DriveNets 网络操作系统 (DNOS) 不仅支持将 FOC 的 ZR/ZR+ 模块插入白盒,还在 UfiSpace 白盒上支持这些模块。它还支持这些模块在多种操作模式下运行,包括 ZR 和 ZR+。
这三家公司表示,他们正在合作,通过将三个通信层合并为单一平台并消除对独立光学转发器的需求,为网络运营商带来显著的成本节约。这也有助于减少运营商的硬件占用空间,降低运营开销、占地面积和能源使用。
FOC 光学解决方案还包括来自 NTT Innovative Devices Corporation 的组件,该组件旨在通过创新的基于光学的基础设施技术克服现有基础设施的限制,实现高速、大容量通信。
这一战略与 NTT 主导的创新光无线网络计划 (IOWN) 保持一致,该计划旨在满足未来超连接商业世界的不断增长的需求,提供利用光子技术的超高速、大容量互联网服务的未来全球通信基础设施。
从技术角度来看,IOWN 包括三个主要技术领域:全光网络 (APN)、数字孪生计算和认知基础。包括终端在内的网络和信息处理基础设施旨在使用专注于光学的技术提供高速、大容量通信,以及大量计算资源。
DriveNets、UfiSpace 和 Fujitsu Optical Components 都是 IOWN 全球论坛的成员,该论坛推广 IOWN,共享未来通信基础设施的愿景。这个组合解决方案将成为 IOWN 网络解决方案的一部分,提供capable 400Gbps 长距离传输的交换机/路由器。
Fujitsu Optical Components 的企业官员 Yukiharu Fuse 表示:"我们与 DriveNets 的合作使运营商能够构建更高效的网络,并简化端到端网络管理。这种整合不仅确保 FOC 的 ZR/ZR+ 模块能够被 DriveNets Network Cloud 软件无缝调整、配置和管理,还保证了一个经过充分测试和验证的集成解决方案。"
UfiSpace Japan 负责人 Norry Lin 补充说:"我们在开放分解式网络方面的共同愿景已经在行业中产生了重大变化,使运营商在构建网络方面拥有更大的灵活性,并允许他们大幅提高网络效率。今天的公告更进一步扩大了服务提供商的选择,并减少了硬件占用空间。"
DriveNets 全球战略联盟副总裁 Nir Gasko 表示:"ZR+ 模块的最新进展简化了相距数百公里的数据中心之间的连接,同时创建了一个融合的网络基础设施,减少了运营商需要管理的网络元素数量。像 Fujitsu Optical Components 提供的这样的创新 ZR+ 模块,与分解式网络解决方案相结合,为全球运营商带来了巨大的经济效益。"
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。