英特尔近日在巴塞罗那举行的MWC大会上宣布了这一消息。英特尔表示,这只是实现全球网络(包括核心网络、开放RAN和边缘)虚拟化使命迈出的最新一步。
网络虚拟化涉及将硬件和软件网络资源和功能组合到一个基于软件的管理实体中。这是通信服务提供商从固定功能硬件迁移到可编程的、软件定义的平台的一项关键功能,可以提供更高的敏捷性和更高的成本效率。
据英特尔称,这种对敏捷、高性能和可扩展网络的需求,要求采用可以在通用处理器上运行的、完全虚拟化且基于软件的平台。然而,网络运营商需要加速网络虚拟化以充分利用这些新的架构,在这方面英特尔可以大展身手。
英特尔表示,搭载英特尔vRAN Boost的第四代英特尔至强可扩展处理器得到了研华、凯捷、佳能、戴尔、Telefonaktiebolaget LM Ericsson、超微、红帽、Verizon Communications和Vodafone等公司的广泛行业支持。英特尔表示,通过将vRAN加速完全集成到英特尔片上系统中,以消除对外部加速卡的需求。通常来说,Open RAN网络运营商需要依赖外部硬件加速卡来提升硅处理器的网络功能。
而现在不再需要了。英特尔表示,英特尔vRAN Boost可以在相同的功率范围内提供比上一代芯片高两倍的容量,集成加速还可以额外节省20%的功率。因此英特尔表示,这些芯片超越了第四代英特尔至强平台的标准每瓦性能,提高了当今最强大的Layer 1片上系统加速卡的性能。
为了证明其观点,英特尔在MWC上展示了具有vRAN Boost功能的至强可扩展处理器是如何能够在三星验证的双路服务器中,为5G用户平面功能工作负载提供业界第一的每秒1 TB的性能。
英特尔高级副总裁、网络和边缘集团总经理Sachin Katti表示,英特尔在为全球云和网络提供动力方面的经验,使其对于把计算和加速置于从云到边缘的什么位置具有独特的见解。
他说:“我们在第四代英特尔至强平台上取得的进步使vRAN性能翻倍,同时在相同功率范围内使5G核心UPF吞吐量几乎翻了一番,并且加快了网络、安全和企业边缘服务的部署,让英特尔成为客户实现未来网络现代化和变现的平台。”
此外,英特尔还发布了新的Infrastructure Power Manager for 5G Core参考软件,可与vRAN Boost搭配使用。英特尔表示,该软件有助于对运行时服务器功耗与数据流量进行动态匹配而不会影响吞吐量、延迟和丢包,从而进一步提高效率和性能。
此外,在对Casa Systems、NEC和Nokia构建的网络进行的一系列测试中,英特尔展示了它是如何通过帮助独立服务厂商和网络运营商更易于获得第三和第四代至强可扩展处理器的关键功能,来缩短投入市场的时间,这些功能包括功率遥测、精细功率控制状态和低延迟频率变化等等。这样,客户就可以使用Infrastructure Power Manager for 5G Core软件来降低网络总拥有成本,加快实现净零排放目标的进程。
整合的视频服务交付
在另一份公告中,英特尔展示了全新的Intel Converged Edge Media Platform,该平台旨在通过共享的多租户架构提供多种视频服务,利用云原生可扩展性来智能地响应不断变化的需求。
英特尔解释说,视频服务正在推动网络边缘的快速增长。因此,网络运营商正在大量投资于他们各种类型视频服务的专用资源,包括内容交付网络、云游戏、混合现实、3D渲染等。不过英特尔认为,这是一个冒险的策略,因为现在还不清楚这些服务中的哪些服务最终会流行起来。
英特尔表示,解决方案是安装一个融合平台,通过一个CPU和GPU加速的云原生环境支持上述所有场景。然后,运营商就可以使用一种通用架构,利用该架构动态更改和调整工作负载的大小,从而使他们的所有视频服务能够驻留在一起。
为网络应用定制的芯片
最后,英特尔宣布扩大Agilex 7 FPGA和eASIC N5X结构化专用集成电路的范围,专为个人云、通信和嵌入式应用而设计。
英特尔表示,新推出的英特尔Agilex 7 FPGA AGI 041设备可以支持从200G到400G网络的过渡。FPGA是一种特殊的计算机芯片,可以针对特定任务进行重新编程。
英特尔表示,AGI 041设备将为400G基础设施处理单元和网络系统提供容量、能效和性能上的平衡。与此同时,新的eASIC N5X080芯片旨在帮助网络运营商优化各个应用的成本和功耗,与标准FPGA相比,能效提高了60%。ASIC是一种为特定用途定制的集成电路芯片,它所提供的性能优势高于灵活性,因为ASIC是无法重新编程的。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。