2025年1月,创新光学和无线网络(IOWN)全球论坛迎来了成立五周年。该组织表示,今年的工作重点将放在更新参考架构和技术上,同时开发关键行业的早期应用案例。最新进展是该贸易协会与国际电信联盟(ITU)签署协议,加速进一步合作。
由全球技术巨头和通信运营商NTT主导的IOWN项目,旨在满足未来超连接商业世界不断增长的需求。该项目提供未来全球通信基础设施,能够利用基于光子学的技术,即全光网络(APN),实现超高速、大容量互联网服务。
这主要是对人工智能及其技术生态系统给网络带来的当前和未来需求的回应。随着AI驱动的数据中心增长飞速发展,网络基础设施必须不断适应各种外部压力和前所未有的负担,即使是当前的全球光学架构也面临挑战。该项目还旨在解决对数据需求几乎呈指数级增长,以及由于未来应用(特别是大语言模型用例)需要大量计算能力而导致的能耗相应上升问题。
拟议的新网络和信息处理基础设施包括能够使用光学技术提供高速、大容量通信的终端,以及大型计算资源。在其使命中,NTT得到了爱立信、诺基亚、索尼、Ciena、英特尔、英伟达、微软、Orange、西班牙电信和谷歌等公司的支持。
在合作中,作为联合国数字技术机构的ITU和IOWN全球论坛表示,他们将共同努力实现"在全球范围内建设更可持续、更智能的世界"。在签署协议时,两个组织表示认识到利用光子学技术的"创新"网络和计算基础设施的重要性,并同意在全球标准化活动(包括发展中国家)方面进行合作,以及在ITU的先进光学技术教育项目中进行合作。
ITU协议是在IOWN全球论坛2025年度成员大会在斯德哥尔摩举行后签署的。会议开始时,瑞典国际发展和对外贸易部长国务秘书Hakan Jevrell告诉代表们,随着下一代数字化的形成,企业必须应对日益增长的组织挑战,以及来自最近美国关税公告和其他地缘政治危机的不确定性,这增加了开发系统和服务以保持企业相关性的需要。
活动还见证了研究公司Omdia发布的白皮书《全光网络赋能下一代数字经济》的推出,该报告揭示了解决AI驱动的潜在能源危机的需求。报告计算得出,以千兆瓦计算,全球数据中心总容量——分析师称之为AI能力的关键支撑基础设施——预计从2024年到2027年将增长57%。
Omdia表示,这对网络基础设施提出了许多未来需求,如:在紧张的资本支出目标内需要更大的带宽来满足激增的容量需求;更低的延迟以满足各个行业的高级应用和服务要求;每比特更低的功耗以满足可持续性目标并降低能源成本;类似云的敏捷性以匹配带宽供应与服务利用;以及更强的网络鲁棒性和安全性以确保抵御自然和人为干扰的韧性。
分析师补充说,为了实现这些目标,下一代光网络必须跟上新AI数据中心站点的新光纤建设步伐,具有扩展的网络毛细管性(使用短距离无线接入技术为物联网设备提供本地连接)和更大的整体容量。Omdia表示,他们认为IOWN APN在应对这些挑战方面可能发挥关键作用。
Q&A
Q1:IOWN全光网络项目是什么?主要目标是什么?
A:IOWN是由NTT主导的创新光学和无线网络项目,旨在满足未来超连接商业世界的需求。该项目提供基于光子学技术的全光网络,能够实现超高速、大容量互联网服务,主要应对AI及其技术生态系统给网络带来的挑战。
Q2:为什么需要发展全光网络技术?
A:主要原因是AI驱动的数据中心快速增长给网络基础设施带来前所未有的压力。数据需求呈指数级增长,同时大语言模型等未来应用需要大量计算能力,导致能耗相应上升,现有网络架构难以满足这些需求。
Q3:IOWN项目与ITU合作的意义是什么?
A:ITU是联合国数字技术机构,与IOWN的合作将推动全球标准化活动,包括支持发展中国家,并在先进光学技术教育项目中进行合作,共同实现"在全球范围内建设更可持续、更智能的世界"的目标。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。