Nvidia 表示,其融合 InfiniBand 技术的 Spectrum-X 以太网可将存储网络的读取带宽提升近 50%。
Spectrum-X 是基于 Spectrum-4 ASIC 的以太网交换机产品与 InfiniBand 产品的结合。它支持 RoCE v2 (用于融合以太网上的远程直接内存访问) 和 BlueField-3 SuperNIC。Nvidia 的 InfiniBand 产品具有自适应路由功能,当初始选择的路由繁忙或链路中断时,可以通过最不拥塞的网络路由发送数据包。Spectrum-4 SN5000 交换机提供高达 51.2 Tbps 带宽,配备 64 个 800 Gbps 以太网端口。它具有用于自适应路由和拥塞控制的 RoCE 扩展功能,这些功能可与 BlueField-3 产品协同工作。
自适应路由的数据包可能会乱序到达目的地,而 Nvidia 的 BlueField-3 产品能够正确重组这些数据包,"将它们按顺序放入主机内存,使自适应路由对应用程序透明。"
Nvidia 的一篇博客解释说,由于 Spectrum-X 自适应路由能够减轻流量冲突并提高有效带宽,其有效存储性能远高于 RoCE v2,而"RoCE v2 是大多数数据中心用于 AI 计算和存储网络的以太网协议。"
博客讨论了大语言模型 (LLM) 训练过程中的检查点操作,这种训练可能持续数天、数周甚至数月。系统会定期保存作业状态,这样如果训练运行失败,可以从保存的检查点状态重启,而不是从头开始。博客指出:"对于拥有数十亿和万亿参数的模型,这些检查点状态变得非常大 - 当今最大的 LLM 可达数 TB 数据 - 保存或恢复它们会产生'大象流量'...可能会使交换机缓冲区和链路不堪重负。"
这里假设检查点数据是通过网络发送到共享存储(例如存储阵列),而不是发送到 GPU 服务器的本地存储,后者是 Microsoft LLM 训练中使用的技术。
Nvidia 还表示,在 LLM 推理操作中,当从存储 RAG (检索增强生成) 数据的网络存储源向 LLM 发送数据时,也会出现这种网络流量峰值。它解释说:"向量数据库是多维的,可能会非常大,特别是在包含图像和视频的知识库的情况下。"
RAG 数据需要以最小的延迟发送到 LLM,这在"多租户生成式 AI 工厂中变得更为重要,因为每秒查询量是巨大的。"
Nvidia 表示已在其 Israel-1 AI 超级计算机上测试了这些 Spectrum-4 功能。测试过程测量了 Nvidia HGX H100 GPU 服务器客户端访问存储时产生的读写带宽,分别在标准 RoCE v2 网络配置下和启用 Spectrum-X 的自适应路由和拥塞控制功能的情况下进行测试。
测试使用不同数量的 GPU 服务器作为客户端,范围从 40 个到 800 个 GPU。在每种情况下,Spectrum-X 都表现更好,读取带宽提升 20% 到 48%,写入带宽提升 9% 到 41%。
Nvidia 表示 Spectrum-X 与其他产品配合良好,可加速存储到 GPU 的数据路径:
- AIR 云端网络模拟工具,用于对交换机、SuperNIC 和存储建模 - Cumulus Linux 网络操作系统,围绕自动化和 API 构建,"确保大规模运营和管理的顺畅" - 用于 SuperNIC 和 DPU 的 DOCA SDK,为存储、安全等提供可编程性和性能 - 与交换机遥测集成的 NetQ 网络验证工具集 - GPUDirect Storage,用于存储和 GPU 内存之间的直接数据路径,提高数据传输效率
我们可以期待 Nvidia 的合作伙伴如 DDN、Dell、HPE、Lenovo、VAST Data 和 WEKA 将支持这些 Spectrum-X 功能。
好文章,需要你的鼓励
OpenAI、Anthropic和Google的AI代码助手现在能够在人工监督下连续工作数小时,编写完整应用、运行测试并修复错误。但这些工具并非万能,可能会让软件项目变得复杂。AI代码助手的核心是大语言模型,通过多个LLM协作完成任务。由于存在上下文限制和"注意力预算"问题,系统采用上下文压缩和多代理架构来应对。使用时需要良好的软件开发实践,避免"氛围编程",确保代码质量和安全性。研究显示经验丰富的开发者使用AI工具可能反而效率降低。
Prime Intellect团队发布开源AI训练全栈INTELLECT-3,这个106亿参数模型在数学、编程等测试中超越多个大型前沿模型。团队完全开源了包括prime-rl训练框架、环境库、代码执行系统在内的完整基础设施,为AI研究社区提供了高质量的训练工具,推动AI技术民主化发展。
英伟达与AI芯片竞争对手Groq达成非独家授权协议,将聘请Groq创始人乔纳森·罗斯、总裁桑尼·马德拉等员工。据CNBC报道,英伟达以200亿美元收购Groq资产,但英伟达澄清这并非公司收购。Groq开发的LPU语言处理单元声称运行大语言模型速度快10倍,能耗仅为十分之一。该公司今年9月融资7.5亿美元,估值69亿美元,为超200万开发者的AI应用提供支持。
港科大研究团队开发ORCA框架,首次让视频头像具备真正的"主观能动性"。通过"观察-思考-行动-反思"循环机制和双系统架构,虚拟角色能够自主完成复杂多步骤任务,在L-IVA测试平台上达到71%成功率。这项技术突破了传统视频生成只能机械执行预设动作的限制,为虚拟主播、教育视频等应用开辟新前景。