至顶网网络频道 03月21日 国际消息: 近日Facebook对外公布了一个名为Fabric Aggregator的分布式网络系统,该系统用于扩展其区域内数据中心结构之间的网络容量。
Fabric Aggregator设计使用了简单和开放的构建模块——例如Wedge 100,Facebook的架顶式网络交换机,以及FBOSS(基于Linux的操作系统),这种设计提供了快速调整容量所需的灵活性。
Facebook在一篇博客文章中解释说,因为要修建第12个数据中心,并且要把原来位于Papillion、Nebraska的两座建筑扩展至六座,所以需要具有一定的灵活性。Facebook的数据中心覆盖范围正在不断扩大,以适应更多沉浸式内容,例如实时视频、360度照片和虚拟现实。
为了提供更高的灵活性和操作简单性,Facebook为Fabric Aggregator开发了一个布线组装单元,该单元模拟底板在经典机箱设备中提供的功能。换句话说,这个单元提供了Fabric Aggregator构建块之间的互连。
Facebook在博客文章解释说:“通过这种方法,我们可以扩展容量,互换构建块,并随着我们的需求变化快速更换电缆组件。”
Facebook设计了四种不同的布线配置,并通过Open Compute Project开放了这种设计。
同时,Fabric Aggregator节点(复制带宽单位以满足聚合层的总体需求)实现了两层交叉连接体系结构。下层负责切换区域传输流量(东/西),而上层负责切换往返这些区域的传输流量(北/南)。
Facebook在博客文章中称:“我们将该解决方案分成两个不同的层,这使得我们在流量需求发生变化时,能够添加更多的子交换机,从而单独扩展东/西和南/北的容量。”
Facebook解释说,这种构建块的方法可以在子交换机或节点级运行,提供了灵活性和安全性。“Fabric Aggregator层可能会同时发生很多故障,而不会影响网络的整体性能。”
好文章,需要你的鼓励
英伟达宣布推出Alpamayo-R1开源推理视觉语言模型,专为自动驾驶研究设计,这是首个专注于自动驾驶的视觉语言行动模型。该模型基于英伟达Cosmos Reason模型构建,能够处理文本和图像,让车辆"看见"周围环境并做出决策。英伟达还发布了Cosmos Cookbook开发指南,帮助开发者训练和使用模型。这些技术对实现L4级自动驾驶至关重要。
NVIDIA研究团队开发的OmniVinci是一个突破性的多模态AI模型,能够同时理解视觉、听觉和文本信息。该模型仅使用0.2万亿训练样本就超越了使用1.2万亿样本的现有模型,在多模态理解测试中领先19.05分。OmniVinci采用三项核心技术实现感官信息协同,并在机器人导航、医疗诊断、体育分析等多个实际应用场景中展现出专业级能力,代表着AI向真正智能化发展的重要进步。
波兰AI语音公司ElevenLabs由两位30岁创始人Staniszewski和Dabkowski创立,其AI语音技术能够生成极其逼真的人声。公司在四年内从零发展到估值66亿美元,两位创始人均成为亿万富翁。该公司年收入1.93亿美元,净利润1.16亿美元,服务客户包括思科、Epic Games等知名企业。尽管面临深度伪造等技术滥用风险,ElevenLabs仍在与谷歌、微软等科技巨头竞争AI语音市场主导地位。
Salesforce研究团队发布BLIP3o-NEXT,这是一个创新的图像生成模型,采用自回归+扩散的双重架构设计。该模型首次成功将强化学习应用于图像生成,在多物体组合和文字渲染方面表现优异。尽管只有30亿参数,但在GenEval测试中获得0.91高分,超越多个大型竞争对手。研究团队承诺完全开源所有技术细节。