2015开放网络峰会(ONS)如期举行,Google依然是大会最璀璨的明星。6月17日,Google网络研究院及技术主管Amin Vahdat给我们带来了Google的分享。在他的keynote上给我们回顾了这家搜索引擎巨头在数据中心网络上前进的步伐。

Vahhdat介绍了Google对SDN的理解,从最简单的SDN到SDN的各种场景应用,也只有在技术上深耕的大牛公司才能将技术讲的如此简单 明了。随后,他讨论了在往届ONS上Google分享的SDN案例,包括B4、Google的SD-WAN、网络虚拟化服务Andromeda。这一次, 他给我们分享了Google数据中心的内部网络。
几年前,传统网络架构已经不能满足Google数据中心的规模上的需求。“我们买不到一个数据中心系统能够满足我们的分布式系统的需 求。”Vahdat说道。“这些传统网络仅仅是不能满足我们数据中心带宽的需求。”对Google而言,可买的路由器的最大空间限制了我们网络的规模。可 扩展性是公司与生俱来的特质,这样的公司基因为后续Google内部发展SDN铺平了道路。下图(本图来自参与本次会议阿里巴巴的kitty拍摄的会议记 录照片)是Google分享的其从2006至今网络的创新路径,包括2006年的Google Global Cache,2008的Watchtower、Freedome,2010的Onix、BwE、B4,2012的Jupiter、2014的 Andromeda、Quic、gRPC。

Google将目光朝向了Clos拓扑、商业硅晶片,还有集中式控制(这是SDN的主要特性),这些都是其数据中心网络模型的灵感来源。按照这样的 节奏,Google在校园网聚合和广域网之间发现了新的思维连接点。就这样在近10年,Google创建的B4和Andromeda在数据中心网络中扮演 了非常重要的角色。
数据中心的流量在2007年到2014年之间增长了近50倍,Google任然考虑到可伸缩性至关重要。不过其讨论的其他规模的统计数据太大了,以 至于ONS主席Guru Parulkar都难以置信其规模之大。例如Jupiter,Google第五代的数据中心架构,每个集群每秒能产生1.3G比特的数据。
“计算已经在一个十字路口。在Google,我们对网络特别感兴趣,因为它将改变计算的含义。”Vahdat补充道。他提到了摩尔定律,“每平方英 寸集成电路的晶体管数量在逐年翻倍,不过这个现象将很快结束。我们必须改变我们对计算的认知,以为我们不能一直为了跟上带宽的需要而让网络重复撤掉再替换 的循环。”
“使用SDN,Google能够满足这种日益增长的需求。其数据中心网络的基础设施可以支持规模化、性能、可用性,开发人员现在也有机会在Google云平台上进行修补。”Vahdat总结道。
SDNLAB语:Google对于基础设施高度重视,这也是美国世界顶级互联网公司的代表做法,无论是Amazon还是Facebook,他们都在做自己的硬件+软件的解决方案,既然没人能做那就我们自己做,这不仅仅是自信,更是一种对技术创新的执着。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。