Facebook位于衣阿华州阿尔图纳的数据中心的空中鸟瞰图
Facebook的数据中心每天要收到多达数十亿次的用户请求;随着这家公司不断添加成员,推出新的功能特性,请求数量在不断增加。这一切对Facebook来说基本上是好事,可是对Facebook的网络工作人员来说却是个挑战。比如说,五个月前还能满足要求的数据中心拓扑结构现在已不堪重负了。
所以除了构建大型数据中心(比如位于衣阿华州阿尔图纳的这个数据中心)外,Facebook的工程师们还在不断优化数据中心的网络设计。话虽如此,用调整和改动来形容工程师们提出并在阿尔图纳数据中心落实的的设想想法可能并不恰当,更像是他们重新编写了网络设计指南。
旧的Facebook网络
在阿尔图纳数据中心兴建之前,Facebook的工程师们将数据中心的服务器机架排列成集群,类似图A中所示的架构。在实际环境中,Facebook不是只有三个机架,而是会有数百个机架。另外该图还显示了每个机架的架顶式(TOR)交换机,架顶式交换机在服务器和上游聚合交换机之间充当中介。
图A:架顶式(TOR)――网络连接架构
这种架构很管用,但是却给Facebook的工程师们出了几道难题。Facebook的网络工程师Alexey Andreyev解释:“首先,集群的大小受到集群交换机端口密度的限制。想建造最庞大的集群,我们就需要最庞大的网络设备,而那种设备只有一批数量有限的厂商才有售。另外,一个设备中需要这么多的端口与提供带宽最高的基础设施这种愿望相悖。更为困难的是,如何在集群大小、机架带宽和集群外面的带宽之间保持长期的最佳平衡。”
Fabric:新的网络拓扑结构
工程师们将每天那些数十亿次请求视作一种激励,决定摈弃复杂的、很耗带宽的自上而下的网络层次体系,改而换成一种新的设计,名为Fabric。图B中的幻灯片描述了新的服务器机架集群,名为pod。单单一个pod包括48个机架和架顶式交换机,架顶式交换机相互连成四只fabric交换机。“每只架顶式交换目前有4条40G上行链路,为用10G连接的服务器机架提供了总共160G的带宽容量。”
图B
这种设计方法具有下列优点:
•易于部署拥有48个节点的pod
•可扩展性得到了简化,而且没有限制
•每个pod都一模一样,都使用同样的连接
下一步是连接所有fabric交换机――图C中的幻灯片描述了这项任务是如何完成的。Andreyev表示,这个比较简单(难以想象它曾经是什么样子)。
图C
Andreyev解释,Facebook的工程师们在增添主干交换机时恪守48个节点这一原则。“为了实施覆盖整个大楼的连接,我们建立了主干交换机组成的四个独立‘平面’,每个平面里面最多可以扩展到48个独立设备。每个pod的每只fabric交换机都连接到本地平面里面的每只主干交换机。”
Andreyev接下来提到的数字大得惊人。“pod和平面共同组成了一个模块化网络拓扑结构,它能够容纳数十万台用10G连接的服务器,可扩展到数千万亿位的等分带宽,为我们的数据中心大楼提供非超额订购的机架到机架性能。”
网络运营
从架顶式交换机到网络的边缘,Fabric网络设计统一使用“第3层”技术,支持IPv4和IPv6,并且使用等成本多路径(ECMP)路由。Andreyev补充说:“为了防止偶尔出现的‘长流’(elephant traffic)大量占用带宽,导致端到端路径性能下降,我们让网络具有多种速度――所有交换机之间使用40G链路,同时通过架顶式交换机上的10G端口来连接服务器。我们还有服务器端机制,以便万一出现问题,可以绕过故障处。”
物理布局
Andreyev写道,图D中所示的新大楼布局与Facebook之前的设计区别不是很大。一个区别是,将Fabric新的主干交换机和边缘交换机放置在数据大厅X和数据大厅Y之间的第一层,并让通向外界的网络连接(最小入口点,即MPOE)跨越主干交换机和边缘交换机时代。
图D
克服挑战
Facebook的工程师似乎已克服了面临的挑战。硬件的局限性不再是个问题。不但减少了不同部件的数量,还降低了复杂性。Andreyev表示,技术团队奉行了“KISS(力求简单)”原则。他在文章的结尾处补充道:“我们新的fabric不是这种方法的一个例外。尽管这种拓扑结构规模庞大、样子复杂,但它其实是个高度模块化的系统,有许多重复部件。它很容易自动化和部署,而且运营起来比数量更少的一批定制集群还要来得简单。”
好文章,需要你的鼓励
在AI智能体的发展中,记忆能力成为区分不同类型的关键因素。专家将AI智能体分为七类:简单反射、基于模型反射、目标导向、效用导向、学习型、多智能体系统和层次化智能体。有状态的智能体具备数据记忆能力,能提供持续上下文,而无状态系统每次都重新开始。未来AI需要实现实时记忆访问,将存储与计算集成在同一位置,从而创造出具备人类般记忆能力的数字孪生系统。
中国人民大学和字节跳动联合提出Pass@k训练方法,通过给AI模型多次答题机会来平衡探索与利用。该方法不仅提升了模型的多样性表现,还意外改善了单次答题准确率。实验显示,经过训练的7B参数模型在某些任务上超越了GPT-4o等大型商业模型,为AI训练方法论贡献了重要洞察。
OpenAI首席执行官阿尔特曼表示,公司计划在不久的将来投入数万亿美元用于AI基础设施建设,包括数据中心建设等。他正在设计新型金融工具来筹集资金。阿尔特曼认为当前AI投资存在过度兴奋现象,类似于90年代互联网泡沫,但AI技术本身是真实且重要的。他承认GPT-5发布存在问题,并表示OpenAI未来可能会上市。
南加州大学等机构研究团队开发出突破性的"N-gram覆盖攻击"方法,仅通过分析AI模型生成的文本内容就能检测其是否记住了训练数据,无需访问模型内部信息。该方法在多个数据集上超越传统方法,效率提升2.6倍。研究还发现新一代AI模型如GPT-4o展现出更强隐私保护能力,为AI隐私审计和版权保护提供了实用工具。