物联网、5G和AR/VR等新兴技术的兴起,一直在驱动着边缘网络计算需求。但全球面临的新冠肺炎疫情,让高速网络的需求以一种前所未有的速度飞速增长——视频会议和流媒体内容播放的需求量均达到了创纪录的高度,两者都需要更高的带宽和零延迟数据传输。通常定义下,五毫秒以内的延迟都可以被认为是“零延迟”,但在当前全面联网的远程办公时代,五毫秒延迟也已经明显太慢了。
网络从未如此关键。无论是电话会议还是流媒体(视频内容或游戏),服务提供商都无法承受卡顿、分辨率下降和缓存变慢的现象。为了解决这一问题,业务应用和数据必须尽可能靠近数据摄取点,缩短总体往返时间,最终让应用程序可以实时获取信息。
但在实际执行中却不那么容易。
直面挑战
对于服务提供商来说,边缘计算有着独特的挑战。在边缘领域涌现出大量的解决方案意味着部署的容器越来越多,增长速度超过了人们可以实现有效管理的速度。虽然可以使用编排工具进行自动部署,但要确保自动化的故障排查和服务保证,可观测性才是关键。
毕竟,任何程度的服务中断都将会招致大量的客户投诉,因此服务提供商会迫使IT团队尽可能快速地解决问题。但从IT团队的角度来讲,即使已经拥有了识别问题来源和解决问题所需的信息,但检查分散于各服务器组件的大量遥测数据依然会是很大的挑战。IT团队需要能够快速地处理这些数据的能力,并根据可见的趋势获得有价值的洞察。
数据驱动的解决方案
解决方法的关键,就是在于人工智能的能力,更具体地说是机器学习,在其驱动下,编排解决方案可以对各工作负载进行可扩展的预测性操作。通过机器学习与实时网络监测的结合,可为自动化工具提供所需的洞察,从而以比人工更快更准确的方式对物理和虚拟网络功能进行预设、实例化并配置。这一过程也意味着IT团队可以把时间用在具有更高价值的任务关键型项目上,为企业创造实际收益。
将人工智能带到云端
针对应用程序在网络边缘的生命周期管理,机器学习也发挥着关键作用。在只有几个集中式数据中心构成的环境中,运营商可以明确应用程序虚拟网络功能(VNF)的最佳性能条件。但是随着环境分散成数千个小型场所,虚拟网络功能就有了更复杂的需求,必须根据实际情况予以满足。
运营商没有足够的带宽可以满足所有这些需求,因此人工智能的应用再次彰显出重要性。机器学习算法可以通过一个前期循环测试来运行所有组件,以评估它们在生产场所的表现,让运营人员判定所测试的应用程序可以在边缘正常运行。
由边缘网络决定的未来
边缘计算的兴起彻底改变了服务提供商对于基础设施的想法。人们越来越将边缘看作是优质资产。由服务提供商提供和管理,在人工智能和机器学习的优化下,边缘计算可被用于数不胜数的业务目的。一旦这一高度沉浸式边缘计算力得到释放,我们就会看到应用程序和新的工作负载涌向网络边缘,这在五年前还是无法想象的。
在未来,不只是服务提供商要利用网络边缘。很快,边缘云环境将会解放更多潜力——开放、安全、云原生,具有各种可扩展的预测性操作——可满足更丰富的企业、消费者和电信工作负载需求。边缘云将集成安全能力,有效减少安全事件的破坏半径。最终,人工智能驱动的预测性操作将会被用于管理运行着数千个边缘位置的复杂环境,从而有效提升消费者和员工使用体验。
好文章,需要你的鼓励
在“PEC 2025 AI创新者大会暨第二届提示工程峰会”上,一场以“AIGC创作新范式——双脑智能时代:心智驱动的生产力变革”为主题的分论坛,成为现场最具张力的对话空间。
人民大学团队开发了Search-o1框架,让AI在推理时能像侦探一样边查资料边思考。系统通过检测不确定性词汇自动触发搜索,并用知识精炼模块从海量资料中提取关键信息无缝融入推理过程。在博士级科学问题测试中,该系统整体准确率达63.6%,在物理和生物领域甚至超越人类专家水平,为AI推理能力带来突破性提升。
Linux Mint团队计划加快发布周期,在未来几个月推出两个新版本。LMDE 7代号"Gigi"基于Debian 13开发,将包含libAdapta库以支持Gtk4应用的主题功能。新版本将停止提供32位版本支持。同时Cinnamon桌面的Wayland支持持续改进,在菜单、状态小程序和键盘输入处理方面表现更佳,有望成为完整支持Wayland的重要桌面环境之一。
Anthropic研究团队开发的REINFORCE++算法通过采用全局优势标准化解决了AI训练中的"过度拟合"问题。该算法摒弃了传统PPO方法中昂贵的价值网络组件,用统一评价标准替代针对单个问题的局部基准,有效避免了"奖励破解"现象。实验显示,REINFORCE++在处理新问题时表现更稳定,特别是在长文本推理和工具集成场景中展现出优异的泛化能力,为开发更实用可靠的AI系统提供了新思路。