2016全球超级计算大会(SC16)在美国盐湖城落下帷幕,期间第48版TOP500超级计算机榜单发布,中国以171台的上榜总数与美国并列第一,千万亿次的超算系统大放异彩。
不过你要问是什么助力了超算系统的性能越来越高、速度越来越快?除了计算、存储、软件、应用等协作外,还少不了一个关键部分,高速互联的网络让超算系统的效率不断提升。Top500榜单(第48版)显示,有超过65%的HPC系统采用InfiniBand网络,并且有46%的千万亿次超算系统采用InfiniBand互连,来自Mellanox InfiniBand互连方案在TOP500榜单中的全部超千万亿次系统中占据了半壁江山。
在高性能计算系统中使用最多的网络毫无疑问属于InfiniBand,统计Top500中HPC系统使用的网络方案数据显示,InfiniBand排头阵,其后分别是Cray、Proprietary,不过后两者均属于私有网络,再之后以太网的份额非常小。
国际高性能计算咨询委员会亚太区主席、Mellanox亚太及中国区高级市场开发总监刘通
HPC系统为什么选择Mellanox InfiniBand?刘通解释了Mellanox为超算系统提供的一系列全球领先的性能、可扩展性和效能。
为HPC网络互连添智能
Mellanox的产品特性可以凸显其所强调的网络并不是简单的数据转发网络,而是加入了强大的“智能”属性。
首先是具备智能处理能力的InfiniBand交换机——100G EDR InfiniBand交换机Switch-IB 2和在SC16上刚刚发布的200G HDR InfiniBand交换机Quantum,智能InfiniBand交换机能够在网络中管理和执行MPI算法。这样,网络就能够在数据传输过程中处理和聚合数据,Mellanox称这种能力为“SHArP(Scalable Hierarchical Aggregation Protocol,可扩展分层聚合协议)”。
刘通指出,“相对于以前的InfiniBand交换机只负责数据转发,Mellanox现在的InfiniBand交换机能够执行数据计算,因此让HPC的应用程序整体性能又有进一步的飞跃。”
其次是InfiniBand网卡,“Mellanox ConnectX-5网卡提供100G网络带宽,延迟降到0.6微妙,每秒可以处理2亿条消息,比上一代产品(Mellanox ConnectX-4适配器)快了33%。”刘通说,同Switch-IB 2一样,ConnectX-5网卡也会执行相应的MPI操作,这会将MPI数据通讯延迟大幅下降,同时将其占用的CPU资源降低至最低的可能。
此外,Mellanox的网卡还支持Multi-Host(多通路)技术,即一款网卡可以同时给多台服务器使用。刘通说,“传统上每台服务器必须配一片网卡,现在Multi-host技术可以使多台服务器共享一片网卡。Mellanox100G的单片网卡,支持4台服务器,每台服务器相当于拥有一片25G独立网卡,这可以大大节约成本,提高灵活性。同时,Multi-Host不仅仅是把一个高带宽的网络切成几片小带宽的网络,它还可以带来另外一个巨大利好,Multi-Host的网络技术可以让每一颗CPU直通网卡,通过PCIe直连到网卡传输数据,避免在多CPU系统共享一片网卡的传统服务器中,通信只能通过与网卡在同一root complex的CPU来完成。因此,Mutli-host不仅降低成本,同时可以保障更好通信性能。”
PK英特尔Omni-Path
当然,看出了Mellanox的做法也就回到了两个技术体系的PK,也就是Offloading(卸载)和Onloading(加载)技术的PK。 Offloading的代表是Mellanox,Onloading的代表是英特尔。
刘通表示,虽然英特尔在很多场合展示了其Onloading的测试结果对比InfiniBand具备性能相近或甚至某些情况下具备微弱优势。 刘通直言性能测试大有玄机。如果使用同样硬件(仅仅网络不同),同样系统软件配置,相同应用程序运行参数,几乎不可能出现Onload技术为基础的omni-path技术比智能InfiniBand还快的可能性。用户的实际体验是最直接的证明。最近在OpenFoam用户大会(主流CAE软件),Onmi-path位于意大利的大型系统使用者直接指出要使用Omni-path网络运行应用的时候需要空余部分核心用来做通讯,这些核心不能分配MPI进程。因为计算与通信会在CPU资源占有上互相冲突,这时候Onloading的缺陷就会出现了。
InfiniBand 100G和Omni-Path 100G应用性能对比
“多个应用测试结果显示,Omni-path性能要比InfiniBand EDR慢很多。尤其随着节点增加,InfiniBand EDR优势越明显”
为什么会有这样的一个区别?刘通解释称,第一点就是对CPU的占有率,因为Omni-Path做网络处理,需要占用大量CPU资源,很多CPU资源耗费在通讯上面,我们的CPU占有率则不到1%。其次,在CPU的指令上面耗费也是非常巨大的一个区别,InfiniBand 3900万,但是Omni-Path已经是几个亿的量级。我们可以把Mellanox InfiniBand看做协处理器,因为它释放了大量CPU指令和CPU占有率,让CPU能够完全地用到计算任务上,从而使用更少的服务器完成同样任务,最终降低整体系统成本。
现在,Mellanox还在继续引领高速网络创新,近日其发布了全球首个 200Gb/s 数据中心网络互连解决方案,200Gb/s HDR InfiniBand 解决方案进一步巩固了Mellanox的市场领先地位。
Mellanox还宣布提供HPC集群的租用服务,128个节点,有最新的Intel CPU、最新的InfiniBand网卡和支持SHArP功能的交换机,还有支持SHArP加速的HPC-X软件、最优化的支持RDMA Lustre文件系统,刘通表示,Mellanox提供的HPC平台是经过反复推敲的性能优化的一个HPC集群。“我们想通过为用户提供HPC租用服务让大家了解一个真正高效率的集群是如何工作的,让用户有一个切身的体会,能够用到我们硬件加速、软件加速、文件系统加速等所有性能的体现优势。”
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。