至顶网网络频道 11月07日 综合消息:Mellanox公司的下一代Innova网络适配器不仅将整合强制性高速接口,同时亦将嵌入一块Xilinx FPGA芯片。
分流工作负载已经成为Mellanox适配器发展策略中的一项重要组成部分,而这显然也迎合了一部分客户的需求——正因为如此,FPGA的加入也变得顺理成章。
该公司高级营销主管Bob Doud在接受采访时解释称,即将推出的这款Innova-2适配器进一步扩展了“将对主机CPU不友好的软件负载的分流能力,通过在FPGA内加速不同功能实现网络功能提速。”
这款全新适配器将Mellanox ConnectX-5与Xilinx Kintex超大规模FPGA加以结合,且提供配置选项以加速主机应用或者网络应用。
通过配置,各板载连接机制——包括网络接口、RDMA以及PCIe——将能够实现主机加速(‘旁观’)或网络加速(‘线路内对冲’)等效果。
在线路内对冲场景下,来自以太网接口的流量将被传递至FPGA以实现网络分流,而后被交付至ConnectX-5系统芯片处,最后才抵达主机。在旁观配置下,流量则首先由该系统芯片处理,随后主机加速工作负载流量被进一步传递至FPGA处。
网上上的PCI交换机同样可以进行两路拆分。
另外,这款设备还支持OpenCAPI(即连续加速器处理器接口),Doud解释称这是为了获得IBM等行业领先厂商的支持。
“OpenCAPI是一种直接接入处理器的处理方式——能够对接IBM的Power9计算架构。这是一种经过改进的总线,类似于PCI Express——但PCIe并不属于连续接口。”
“我们的连接运行有8条通道,每条通道提供25 Gbps速率,因此其峰值数据吞吐量为200 Gbps。除去性能损耗,我们由处理器到FPGA的传输能力在160到170 Gbps之间……这意味着用户能够将一些非常重要的负载分流至FPGA处。”
这款网卡将提供两个版本,分别支持双25 Gbps以太网接口或双100 Gbps接口配置——后者可体现为200 Gbps纯以太网接口或100 Gbps以太网接口加100 Gbps Infiniband接口的形式。
Doud同时指出,以太网加Infiniband的组合也意味着用户可以对这款网卡进行编程,从而在企业内部的以太网与Infiniband存储基础设施之间提供高效桥接。
IPSec与TLS等安全应用对于内联处理体系而言必不可少,亦可用于处理DDoS以及防火墙工作负载。Mellanox公司已经将这类需求纳入发展路线图,而FPGA则能够在未来提供更显著的速度表现与编程性水平。
在旁观类工作负载方面,该公司希望能够在市场上建立起明确的客户吸引力。根据Doud的说法,其中主要包括机器学习、刚刚起步的FPGA即服务业务、区块链加速、搜索优化以及分析等等。
Innova-2网卡还将适用于存储加速场景,Doud指出其将在NVMe架构当中处理压缩与重复数据删除等常见工作负载。
当然,将FPGA引入网卡还能够帮助用户省去构建超大规模环境时所必要的时间投入。
FPGA编程
Doud表示,虽然Mellanox公司目前正在提供一系列FPGA应用以作为预设定功能(例如安全加速),但该公司亦希望拥有FPGA技术能力的客户自己动手以发挥更大的“魔力”。
Xilinx的工具包与开发套件将随这款适配器一同提供,客户亦可联系Xilinx公司生态系统内各合作伙伴以寻求更为广阔的施展空间。
根据Doud的解释,一部分Mellanox知识产权将以“垫片”的方式交付给开发人员。
“以以太网端口为例。大家可以从Xilinx处获得PHY与MAC层,而Mellanox公司则在此之后提供知识产权以实现您在ConnectX中能够找到的各类功能,具体包括负载分流以及数据包处理等等。”
同样的,PCIe MAC层将由Xilinx公司提供,而Mellanox方面则提供部分DMA引擎(例如处理数据移动),“这样客户将无需重新实现基础传输管道。”
尽管该公司并没有转型为服务厂商的雄心壮志,但其仍然组建起一支由FPGA工程师构成的团队,负责帮助客户“掌握电路板与系统相关专业知识”。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。