【深圳,中国,2023年4月20日】在华为第20届全球分析师大会期间,华为与产业组织、全球分析师就“F5G演进,释放绿色数字生产力”深入交流研讨。期间,华为光产品线副总裁金志国阐述了智简全光网面向行业基于F5G演进的5大解决方案创新,呼吁全光产业各方行动起来,共同推动F5G全光网络的发展,持续推进F5G演进。
华为光产品线副总裁金志国发表演讲
华为光产品线副总裁金志国表示,“随着数字经济的快速发展,行业数字化应用数量急剧增长,越来越多的企业选择多云战略,为了应对行业数字化转型的变化,联接逐渐走向智能化,智能联接将有效支撑企业数字化转型。光纤具有绿色环保、抗电磁干扰、低时延、无带宽限制等特点,是承载智能联接的最佳选择。在此基础上,未来F5G演进将进一步增强联接能力——更绿色、更高效、更可靠,同时延伸至感知领域,推动从万物互联迈向万物智联,不断激发行业绿色数字生产力,为行业数字化转型提供更多可能。”
面向五大典型场景的解决方案创新
华为认为,随着F5G技术的演进,在原来的基础上,新增了绿色敏捷光网( GAO)、实时韧性联接(RRL)、以及光感知与可视化(OSV)特点,华为智简全光网在园区网络、广域生产网、工业物联网、数据中心互联、行业感知五大典型场景将持续围绕F5G演进持续创新。
在工业物联网场景,全光工业网解决方案——高效联接打造面向工业5.0的无损工业光网,实现确定性低时延及全时“0”丢包:
随着行业数字化持续深化,对传统工业网络提出挑战:工业生产环境复杂,传统的铜线易受干扰导致丢包;海量终端设备的接入,网络拥塞时常发生,导致时延不确定;此外,传统网络复杂的组网方式,也为新业务快速上线、网络扩容带来困难。业界首个无损工业光网,实现全时“0”丢包、确定性低时延、超长链式组网三大创新,全面增强工业光网的联接能力,打造超高可靠的工业网络。
在园区网络场景,全光园区解决方案——绿色联接打造面向Wi-Fi 7的新一代园区网络,实现超万兆接入
随着云计算、大数据、IoT等技术广泛应用,企业办公、教育、医疗等园区场景的4K/8K、AR/VR应用急速增加,对园区网络的带宽、时延和可靠性提出了更高的要求。华为全光园区方案持续为行业打造绿色联接——业界首个50G POL样机,包含上下行对称50G PON OLT和光终端,将园区网络从10G PON升级到50G PON,助力园区用户拥有超宽网络体验,应对园区流量的快速增长。
在广域生产网场景,全光承载解决方案——可靠联接打造基于OSU的原生硬管道网络,实现5个9的可靠性
能源、交通等行业关系国计民生,通信网作为生产系统最基本的组成部分,对安全性和可靠性有很高的要求。电力线路无人巡检、智慧配电、公路智能监测、智能收费站等新兴业务快速发展,行业需要更大带宽和面向未来的生产通信网络。华为端到端NHP(Native Hard Pipe,原生硬管道)网络解决方案,基于第五代NHP技术OSU(Optical Service Unit),为业务提供从骨干层到接入层的原生硬管道隔离,打造更安全、更可靠的联接,助力行业客户实现安全生产、数字化运营并行发展。
在数据中心互联场景,全光数据中心解决方案——超宽联接打造面向高算力时代的DCI网络,实现高效能效和可靠网络
数据中心承载着企业的核心数据资产,更多企业选择数据中心容灾备份解决方案。然而光纤链路的抖动,会导致存储双活超时,造成客户业务交易失败。为降低网络抖动对数据中心业务的影响,华为首创“存光协同”方案,将存储I/O链路切换时间从120秒降低至2秒,I/O切换时间降低98%。同时通过华为独有的快速保护倒换技术,可以实现Super C+L链路5ms快速切换,切换时间降低90%,从而端到端提升数据中心容灾备份解决方案的可靠性。
在行业感知场景,全光感知解决方案——打造高精准度的行业感知网络,实现米级感知定位
华为全光感知方案应用从管线巡检延伸到周界防护场景,基于华为创新的oDSP和感知算法,实现“0”漏报和低误报,打造多维感知、高精准的周界防护能力,解决周界防护准确性的业界难题,保障铁路、机场和大型园区等安全。
面向未来,华为将围绕F5G演进持续创新,打造领先的产品和解决方案,携手各界,助力千行百业绿色、数字化双重转型。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。