ZD至顶网网络频道 02月23日 编译:Citrix认为运营商们喜欢网络功能虚拟化(NFV)的想法,但是还没有准备好迎接这样一个巨大的飞跃,所以他们现在正在用自己的产品提供类似的体验。
Citrix的想法听起来有一点像是“当你只有一把锤子的时候,所有的东西看起来都像是钉子”的意思,因为该公司的“锤子”是对NetScaler应用程序交付控制器(ADC)的熟悉。
ADC是一种网络设备,能够提供虚拟的或者物理的方式来清理网络,所以很多打包应用程序在网络流量中造成的扭结和碰撞可以不会被人注意到。结果是,即使你用XenApp或者其他厂商提供的同类产品重新打包应用程序的时候做错了什么,使用任何设备、在任何地点的用户都能够享受打包软件带来的体验,因为ADC让网络首先处理应用程序所产生的通信流量。
Citrix的NetScaler是一款杰出的ADC设备,这家公司现在认为电信运营商应该想要尝试一下了,因为他们的用户将会希望通过LTE将应用程序发布到移动设备之上。Citrix认为NetScaler正好可以帮助运营商了解要如何才能够让自己的网络达到NFV需要的规模。
Citrix公司拥有新的、速度更快的产品NetScalers已经做好准备即将推向市场,而只有一款设备超过100 Gbps并不是一个巧合。要强调的是,虚拟版本的NetScaler给了Citrix一个很好的证明,证明虚拟架构能够满足未来的扩展。
在移动世界大会(Mobile World Congress)之前放出这个消息并不是一种巧合,但是Citrix这样做也是合情合理的,因为电信运营商通常都会非常厌恶风险,而且会很敏锐地发现任何可能破坏用户无线网络使用体验的东西。考虑到这些网络现在都已经配备了“锤子”,互联网有望24*7看到视频,以及性能的提高,这意味着网络世界正朝着将NFV变为现实的方向不断迈进。
好文章,需要你的鼓励
这篇研究揭示了大语言模型强化学习中的"熵崩塌"现象——模型在训练早期迅速失去探索能力,导致性能达到可预测的上限。研究者发现验证性能和策略熵之间存在精确的数学关系:R = -a·exp(H) + b,并深入分析了熵变化的内在机制。基于这些发现,他们提出了两种简单有效的方法(Clip-Cov和KL-Cov)来缓解熵崩塌问题,显著提升了模型性能,特别是在困难任务上。这项研究为大模型强化学习的规模化应用提供了关键指导。
Skywork OR1是昆仑公司AI团队开发的开源推理大模型,通过创新的强化学习方法显著增强了语言模型的推理能力。该研究基于DeepSeek-R1-Distill模型系列,采用名为MAGIC的训练方法,在AIME24、AIME25和LiveCodeBench三大基准测试中实现了显著性能提升,32B模型平均准确率提高15.0%,7B模型提高13.9%。研究团队通过系统研究策略熵崩塌现象,提出了有效的缓解策略,并开源了全部代码、数据和模型权重,为AI社区提供了宝贵资源。
上海交通大学研究团队发现多模态大语言模型中的"啊哈时刻"(自我反思模式)虽存在但并不意味着推理能力提升。他们提出了"冷启动强化学习"两阶段方法:先用监督微调建立推理模式,再通过强化学习优化。实验表明,这种方法在多个多模态数学推理基准上表现卓越,使3B参数模型达到接近甚至超越部分7B模型的性能,为增强多模态AI推理能力提供了有效路径。
MBZUAI研究团队开发的SVRPBench是首个模拟真实物流环境的随机车辆路径问题基准测试平台。它通过建模时间依赖的交通拥堵、概率性延误和客户特定时间窗口,为500多个包含最多1000客户的测试实例注入真实世界的不确定性。实验结果显示,先进的强化学习算法在分布变化时性能下降超过20%,而传统方法表现更为稳健。该开源平台通过GitHub和Hugging Face发布,旨在推动更适应现实世界不确定性的路由算法研究。