极致,是一种追求,更是一种态度。而企业对产品的极致追求,更是企业负责任的一种体现。下面就让我们来看一下,新华三企业无线是如何在标准相同、指标相近、功能相仿的同质化时期,利用智能运维,将无线产品做到极致的。
网络智愈,让客户回归业务本身
在与新华三集团无线产品线总经理赵玉金的沟通中我们可以了解到,新华三在2017年8月8日首发了Wi-Fi 6企业无线之后,几乎实现了Wi-Fi 5到Wi-Fi 6的产品切换。随着客户逐渐回归于业务本身,怎么让客户业务好用、易用、体验好,以及让他们省更多的人力去思考真正的业务,成为新华三一直在思考的地方。
新华三集团无线产品线总经理赵玉金
在随后的大约五年多时间里,新华三通过大数据和AI的方式,解决运维的问题,实现网络问题自动优化,达到“网络智愈”。 “网络智愈”最终的目的是免运维,让运维这个服务成为一种远程监控和提醒,最后全部交给新华三的智能运维自己去渐进优化,达到一个理想状态。
例如,在赵玉金的实例讲解中我们可以了解,在新华三协助建设的某校园无线网络中,师生经常遇到走出校门口后,即使有无线信号,但是扫不了共享单车的问题。这是因为校门口属于学校边缘,无线信号不好,因此影响到应用的正常使用。新华三了解到这个问题,在与师生进行深入探讨后,给出了其基于智能运维的独到解决方案。即依据边缘AP和它的漫游轨迹进行路线分析,当分析出这个终端是要离开校园后,一旦终端离开AP的有效范图,就自动让它离开网络。至此校门口因连接无线无法扫描共享单车的问题也就解决了。
此外,还有很多无线运维问题,同样可以依据智能运维去进行解决。比如在一些高密度无线接入场景中,常常遇到的“乒乓漫游”问题。当终端处于两个AP信号相仿的AP之间,很容易出现反复切换的情况,当达到一定频次时,智能运维就可以判定它是“乒乓漫游”。这时候的解决方案就是将其中的一个AP信号稍微增强一点,基本就可以解决这方面的问题。
智能运维4i技术,让无线接入更快速、更智能
智能运维看上去很简单,但实际上想要真正成功运营,需要有一套体系化的技术积累进行支持。新华三将其总结为iRadio、iStation、iHeal和iEdge。
首先,iRadio是解决空口的问题。比如ARP报文,因为它是广播报文,用最低的速率发送,直接就把空口资源占满了。所以,我们一定要站在业务本身来考虑,要把空口资源省出来让真正的业务使用,省出1%,这个网络就好用了。
其次,iStation是解决终端更快更好地接入问题。以前经常会提2.4G和5G的接入导航,如果发现终端支持5G,但想接2.4G,就尽量不让它接。现在的终端如果是双频的,都会优先接5G的。
以上两点是基础,而核心则是新华三的iHeal,通过把服务和研发人员碰到的实际问题的数据可视化,利用数据发现和分析,去解决实际的问题,最大化省去现场结局问题的人力和时间成本。目前新华三已经积累了上百种问题解决方案,像“出门问题”、“乒乓问题”等,只要看整个网络终端波动情况,如果发现有信号来回跳的现象,就直接依据相关策略调整AP功率,一点点地把它优化掉。未来,随着时间的积累,新华三收集到的问题和解决方案也会越丰富,智能运维就会越发成熟,从而可以更好的对企业无线网络实施智能化的管理。
当然,智能运维仅仅是新华三企业无线解决方案其中的一部分,还有可以识别关键业务、加速关键业务、重点保障关键业务的边缘感知iEdge;更快速度、更高性能的“智快”无线接入产品。
正是由于这些智能化的运维策略与智能化的高性能无线产品相结合,才可以让新华三的企业无线在追求极致的道路上越走越远,从而让企业无线达到极致。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。