本文源自F5公司CTO林耕于近日在清华大学的一场圆桌会议上的发言,阐述其对于数字经济发展和Edge 2.0时代的看法。
2020年开始席卷全球的 “新冠” 疫情给全世界带来了更大的变数,但危与机的博弈中,世界的变化并非毫无章法。我们发现,疫情加速了全球数字化的进程,微软CEO Satya Nadella就曾经说过: “在过去几个月内,我们见证了多年才能实现的数字转型进展。”
今天,全球都在走向数字化。根据全球移动通信系统协会(GSMA)统计数据显示,2025年全球联网设备的数量将达到约246亿个。据IDC和Gartner,全球数据量大约每两年就将翻一倍,到2025年,这个数字将疯狂攀升至175ZB,届时大约有超过75%的数据将在边缘侧处理。
可见,万物互联的时代真的来了,它催生了边缘计算的崛起和迭代,并将在未来快马加鞭融入企业乃至社会生活的方方面面。
互联网的第三次浪潮——万物互联的Edge2.0时代
在我看来,边缘计算的崛起和演变将成为互联网第三次浪潮的标志性事件。众所周知,信息技术的变革推动人类走过了PC与互联网时代,以及移动互联网时代,如今向着移动物联网时代迈进。这种进化突出地表现为网络生态系统结构的变化,从静态且封闭的Edge1.0,走向开放和自动化的Edge 2.0,整个过程犹如从单细胞生物到复杂生命体的进化之旅。
更为重要的是,边缘计算正在成为促进行业数字化转型的重要抓手。根据F5刚刚发布的《2021年应用策略现状》报告,76%的企业已经实施或正在积极规划边缘部署,而增强应用性能和收集数据/执行分析是主要推动力量。
新一轮的数字化转型中融入了海量的“物” 元素。过往,由于IT(信息技术)与OT(运营技术)彼此分离,尽管云计算带来了算力的极大提升,但物的加入仍然给云模式下的网络架构带来挑战。而在 Edge2.0时代的移动物联网环境中,IT与OT将真正融合起来,并具备更强大的智能感知和自动化能力。换言之,在由云计算的集中式数据处理模式之外,网络边缘将汇集海量设备与数据,并提供靠近终端的强大算力,由此激发巨大的商业价值。
另一方面,边缘网络上的设备与数据增速将远超过核心基础架构能力的增长速度,由此在端到端的应用交付链条中容易形成阻塞点,且边缘计算对于时效性更敏感,延迟将给系统稳定和应用体验带来近乎致命的打击,安全性的挑战也将显著增加。
创新应用交付,从容驾驭互联网新浪潮
对于多数企业而言,实现云端、边缘到终端的一体化应用部署,形成一套有别于当前核心架构的应用交付模式,将是一条通往Edge2.0时代的有效路径。当前,应用和服务交付基本围绕集中模式而构建,并在公有云或私有数据中心内托管。而在Edge 2.0时代,基础架构、数据架构和应用架构都将向更加分散的点对点方向发展。
基于对多云应用安全和应用交付服务技术的多年深耕,F5 始终服务于数字时代中的“应用”这一组织的核心资产。边缘2.0时代的网络由封闭转向开放,F5所提供的解决方案,通过统一的代码,让每个应用安全或交付服务运行在任何服务器和任何云环境中,并实现从云、边缘到应用的覆盖端到端的安全防护,为客户带来 “感知可控,随需而变” 的应用体验。
如今,各行各业都在数字化转型的大路上加速奔跑。我们相信,边缘部署将逐渐成为客户应用策略的一部分,我们也期待与客户携手,在这场互联网的新浪潮中继续“乘风破浪”。
Source:
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。