世界领先的高性能计算、数据中心端到端互连方案提供商宣布, 互联网搜索巨头百度公司现已采用Mellanox端到端RDMA以太网互连解决方案为其打造全球顶尖的AI平台。在全球计算机系统领域的顶级会议——第26届操作系统原理大会(SOSP’17)上,百度提交了关于 “高性能RDMA协议栈关键技术” 的Poster。该Poster展示通过建立一种类Socket的RDMA通信库,可将现有业务无缝迁移到高性能RDMA协议栈。百度是国内第一家大规模部署Mellanox 100G RDMA (支持RoCE v2) 以太网网络的企业,Mellanox与百度精诚合作,引领了网络技术的快速发展。
随着人工智能和5G网络的兴起,“唤醒万物,万物互联”的时代已经来临。在人工智能领域,计算量需求的爆发式增长无疑对网络提出了更苛刻的要求。百度AI算法具有高流量突发的网络特征,而且对网络的时延、带宽以及吞吐量的需求也很高。百度类Socket通信库底层采用Mellanox 100G RDMA以太网,使得百度AI集群的训练速度获得了大幅度的提升,AI训练参数的同步时间也进一步缩短。
作为高性能互连网络的核心组件,基于RDMA技术的Mellanox以太网解决方案在百度HPC集群和高性能存储集群中也发挥了关键作用。百度云旗下的块存储服务——云磁盘(CDS)采用NVMe介质,其读写时延已低于传统TCP网络的通信时延,网络因此成为了最大的瓶颈。结合25G RDMA以太网解决方案,百度对其底层的Baidu RPC(brpc)进行了改造。测试结果表明,改造后brpc的延迟可降低20% - 60%,QPS(每秒查询率)可提升40% - 80%。相应的,云磁盘(CDS)的读写时延可降低10%-40%。
“无论是传统的HPC应用还是新兴的人工智能平台,都离不开高性能RDMA网络的支持”,Mellanox公司亚太及中国区市场开发高级总监刘通表示。“我们很荣幸与百度公司合作,为业界领先的AI开放生态架构提供支持,共同构建更高效的网络协议堆栈,推动网络革新,共同引领100G RDMA以太网大规模部署,打造AI平台的网络新引擎。”
目前, 百度人工智能研究成果已全面应用于百度产品, 让数亿网民从中受益; 同时, 百度还将语音、图像、机器翻译等难度高、投入大的领先技术向业界开放, 以降低大众创业、万众创新的门槛, 进一步释放创业创新活力。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。