技术行业一直以“微创新”和“重大创新”周期的方式运行着。微创新每个小时、每天、每周或每年都在发生。但重大创新周期大约为二十年。每二十年就会有一个庞大而基础性的变革。它不仅改变了我们的行业,还通过所有其他企业和行业来改变我们的工作、生活和娱乐方式。我们正在进入下一个重大创新周期。
什么是边缘?
边缘不总是一个物理地方,而是一组活动。用户在这里与应用进行连接和交互。应用位于云端或数据中心内。用户可以位于任何地方,边缘随用户而移动。
不要想着物理意义上的边缘,让我们先思考一下我们在这个接口需要做什么?当一个用户与数据或应用进行交互,您需要采用能够控制交互的服务和策略。行动将基于您的身份、位置和权限而有所不同。根据此问题的答案,我们可以采用通过网络服务表现的策略,如路由、防火墙和QoS等。
您可以将几乎所有服务都虚拟化,就像应用程序一样,这种策略打包可能位于任何地方。边缘在任何地方都有可能发生。我们可能把策略推向拥有计算能力的设备,或者能够访问的任何设备。因此,对于移动设备,您并不需要一个物理边缘。虚拟边缘软件和服务在这里融入其中,通常被称为VCE(虚拟用户边缘)。这个方向的第一步并不需要一个完整的VCE架构。您可以从vCPE开始。例如,替代设备堆栈(如物理路由器、防火墙和/或负载均衡),并提供一整套软件(包括路由、VPN、防火墙、NAT等服务)。您可以在任何网站上把它加载到现有的服务器上,并远程管理它。
但是,网络上仍然有一些地方是经典的边缘,含有体现并提供这些网络服务的物理路由器或交换机。而且,总会有地方具有边缘的物理表达式值。您能够在物理网络的边缘获得虚拟化的价值吗?
经典的边缘正在发生变化。
传统意义上,为了在物理边缘提供服务,我们会叠加边缘交换机,而且每一台交换机需要拥有在该位置您所需的全部服务。交换机之间的同质化需求意味着您多花了很多钱,这可能使您的供应商高兴,但没有为用户提供价值。
因此,新边缘的一个进步是超边缘架构,它允许您混合和匹配低成本、低性能的交换机以及高成本功能丰富的交换机。只要您为整个系统的某个设备提供充分的功能,您就能获得虚拟化的好处。堆栈不是由它的最小公分母定义,而是由功能最丰富的成员定义。
SDN准备就绪,开启旅程
第一步也许非常简单,只要确保您的边缘设备为SDN准备就绪,并能够通过OpenFlow和 SDN控制器进行管理。即使您如今没有使用可编程性,您未来要用的时候它已经就绪了。您需要支持OpenFlow和VXLAN等SDN协议以及sFlow等管理协议的边缘设备。您可以使用此功能,以编程方式控制物理边缘。这就像带SDN功能的教练车。您可以用它来轻松体现SDN协议,但无需改变整个网络配置。
其实您拥有许多方法来开启新IP旅程,并立即获得价值。
新IP是一个基于您的时间和条件而建立的现代化网络。(文/博科中国系统工程师总监张宇峰)
好文章,需要你的鼓励
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。
这项研究提出了"思想家"(Thinker)任务,一种受人类双重加工理论启发的新型AI训练方法。研究者将问答过程分解为四个阶段:快速思考(严格预算下给出初步答案)、验证(评估初步答案)、慢速思考(深入分析修正错误)和总结(提炼关键步骤)。实验表明,该方法使Qwen2.5-1.5B模型的准确率从24.9%提升至27.9%,DeepSeek-R1-Qwen-1.5B模型从45.9%提升至49.8%。显著的是,仅使用快速思考模式就能达到26.8%的准确率,且消耗更少计算资源,证明了直觉与深度推理作为互补系统的培养价值。
这项由ELLIS研究所和马克斯·普朗克智能系统研究所的科学家进行的研究,揭示了大语言模型安全测试的根本规律:越狱攻击成功率由攻击者与目标模型间的能力差距决定。通过评估500多个攻击者-目标组合,研究团队发现:更强的模型是更好的攻击者;当目标能力超过攻击者时攻击成功率急剧下降;社会科学能力比STEM知识更能预测攻击成功。基于这些发现,研究者建立了预测模型,表明随着AI进步,人类红队测试可能逐渐失效,提示需要发展自动化安全评估方法及更全面地评估模型的说服和操纵能力。