现在是时候用USB-C替代数据中心内的RJ-45连接器了吗?我知道你们会说:“这是什么东西?没有什么可以取代我的水晶头……”
诚然,通用串行总线(USB)是设备到主机,没有两个路由器或交换机不是端到端。USB还是一个低级别标准,不是专门用于以太网数据包。虽然我们可信赖的铜线以太网已经有几十个继承替代品,但还没有哪个替代品暂时可以占主导地位。但也许,我们应该要准备更换了,特别是在计算密集型数据中心。
不屈不挠的廉价的水晶头
除了功耗,IT中是否有比RJ-45更长久和普及的连接器吗?当然,串口和其他几个连接器(例如D-Sub视频图形阵列)将会更长久,但它们并没有广泛普及。从电信运营开始,8位8触点(8P8C)连接器就一直占统治地位。有谁真的会想念多余的光纤通道SFP连接器吗?没有。所以,以太网光纤通道(FCOE)正在吸收另一个潜在继任者。当然,还有很多链接,其中光纤是唯一合理的解决方案,通常基于长度,但对于大多数连接,用户会希望使用熟悉的水晶头。
RJ-45电缆成功的理由很简单:我们非常喜欢它们。每次我认为我们遇到瓶颈时,尖锐的工程师就会把它更推进一步,这些工程师可能只是不想让熟悉的以太网标准消亡。在写到这篇文章时,40GBASE-T over CAT 8即将推出,贝尔实验室展示了通过两对电话线可实现10 Gbps速度,而谁知道四对CAT.next会带来怎样的速度。作为技术人员,我们只是喜欢我们可敬的非常廉价的RJ-45连接器插头。
另一方面,以太网(协议)并没有太多导管忠诚度。它的应用一直延伸到消费者连接,例如HDMI(以及HDMI以太网通道),通过少许帧封装,USB-C(也称为USB 3.1)将会是世界上最便宜的10 gig数据电缆。你可能可以不再需要使用电源和KVM电缆。
你可能想要尝试的USB 3.1思想实验
想象一下整个机架的商用服务器使用Facebook、OpenCompute或其他开放标准架构,每个都有存储、内存、CPU、以太网连接器和电源线。大多数可能有主板电池来在短期系统停机期间提供不间断电源供应或完整的电源供应。这涉及很多电源组件、连接器和电缆,特别是当你考虑机架中PC板的数量时。因此,如果你引入USB 3.1电缆会怎么样呢?
首先,5 amps(100瓦特/20伏)对于数据线来是很高的电耗。这足以运行商用PC,特别是具有闪存的PC(以太网PoE+只有这的四分之一)。其次,虽然USB信令没有多对以太网那么有效,还有很多现有解决方案可以跨USB传递802.3帧。例如,Linux USB-eth模块让USB对操作系统看起来像是以太网—IP、MAC等。USB从一开始一直在做KVM,这是单一电缆中的另一个融合协议。这甚至被证明足以取代SATAe。
其中缺失的组件是架顶式交换机,在这里商品化真的会有所帮助。虽然过于简单化,该交换机的重点是64端口Broadcom Trident芯片,加上6400瓦电源供应,具有10 Gb或40 Gb光纤上行链路。通信和电源基础设施将被融合到单一设备。通过少数帧封装,硅机架然后降至包含两单位类型,由非常廉价的USB 3.1线缆来连接。想象一下,只有一个插头,对单个网络/配电装置设备和个人电脑集群的监控和管理会多么简单。
也许有一天我们信赖和可靠的以太网布线以及RJ-45连接器将会消失。但USB 3.1真的会取代数据中心布线吗?当然不会。我太喜爱像乐高玩具一样点击水晶接头,我希望PoE会超过25瓦。但迟早,电源和数据的融合会来到数据中心,这将不会是坏事情。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。