超级以太网联盟(UEC)旨在创建一个“基于以太网的完整通信堆栈架构”,该架构将像以太网一样普及且具有成本效益,同时提供超级计算互连的性能。该联盟的创始成员包括在HPC和网络领域深度参与的公司,包括英特尔、AMD、惠普企业、Arista、Broadcom、思科、Meta和微软,项目本身托管在Linux基金会中。
UEC主席J·梅茨博士表明,该项目的目标不是改变以太网,而是对其进行调整,以更好地适应人工智能和HPC工作负载的更高要求特性。
他说:“以太网是我们构建之上的基本技术,因为它是行业内持久、灵活且适应性强的基本网络技术的最佳例子。”
“UEC的目标是专注于如何在以太网之上最好地传输人工智能和HPC工作负载流量。当然,以前已经尝试过这样做,但没有一个项目从头开始专为高要求的人工智能和HPC工作负载设计,也没有一个项目是开放、易于使用并获得广泛采用的。”
该项目针对网络堆栈的多个层级,工作组负责制定“增强物理层和链路层性能、延迟和管理”的规范,以及制定传输层和软件层的规范。
网络对于训练规模不断增长的人工智能模型变得越来越关键;有些模型参数达到了数万亿个,需要在大型计算集群上进行训练,而网络需要尽可能高效,以保持这些集群的繁忙状态。
虽然人工智能(AI)工作负载往往对带宽需求很高,但高性能计算(HPC)也包括对延迟更敏感的工作负载,这两种要求都需要满足。
为了满足这些需求,UEC确定了以下理想特性:灵活的传输顺序;现代拥塞控制机制;多路径和分组喷射;以及更大的可扩展性和端到端遥测。
旧技术使用的刚性分组排序限制了效率,因为它阻止了乱序数据直接从网络传递到应用程序。支持放宽分组排序要求的现代API对于减少“尾延迟”至关重要。
多路径和分组喷射是同时沿源和目标之间的所有可用网络路径发送数据包,以实现最佳性能。
在AI和HPC中,网络拥塞主要是在多个发送方都针对同一节点时,交换机和接收节点之间的链路上出现的问题。而,UEC声称,目前的拥塞管理算法不能满足针对AI优化的网络的所有需求。
主要来说,UEC似乎旨在用一种新的传输层协议取代基于以太网的RDMA over Converged Ethernet(RoCE)协议,以提供所需的特性。这种Ultra Ethernet Transport将支持多路径、分组喷射传输、高效的速率控制算法,并向AI和HPC工作负载提供简单的API。
HPE参与UEC的原因值得注意,因它已经有一个基于以太网的H互连。Cray Slingshot技术是以网的“超集”,如我们在The Next Platform的同事详细描述的那样,同时保持与标准以太网帧的兼容性在HPE近年来参与的许多超级计算机项目中得到应用,例如Frontier超级计算系统。
HPE高性能互连总理Mike Vildibill告诉我们,支持UEC的动机是为了确保Slingshot在一个开放的生态系统中运行。
他说:“我们希望UEC兼容的网卡能够体验到Slingshot互连的一些性能和可扩展性优势。”
Vildibill确认,HPE将继续开发Slingshot,但他认为总会有一些第三方网卡或智能网卡可能具有Slingshot网卡上未实现的功能。
他说:“因此,UEC提供了建立强大的第三方网卡生态系统的机制,以确保我们能够满足广泛的客户需求,同时提供一些Slingshot独特的功能。”
UEC目前处于早期开发阶段,关键技术概念仍在确定和研究中。Metz博士表示,第一个正式的草案可能会在2023年底或2024年初准备好,同时也预计明年会有第一个基于标准的产品问世。
好文章,需要你的鼓励
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。