2015开放网络峰会(ONS)如期举行,Google依然是大会最璀璨的明星。6月17日,Google网络研究院及技术主管Amin Vahdat给我们带来了Google的分享。在他的keynote上给我们回顾了这家搜索引擎巨头在数据中心网络上前进的步伐。

Vahhdat介绍了Google对SDN的理解,从最简单的SDN到SDN的各种场景应用,也只有在技术上深耕的大牛公司才能将技术讲的如此简单 明了。随后,他讨论了在往届ONS上Google分享的SDN案例,包括B4、Google的SD-WAN、网络虚拟化服务Andromeda。这一次, 他给我们分享了Google数据中心的内部网络。
几年前,传统网络架构已经不能满足Google数据中心的规模上的需求。“我们买不到一个数据中心系统能够满足我们的分布式系统的需 求。”Vahdat说道。“这些传统网络仅仅是不能满足我们数据中心带宽的需求。”对Google而言,可买的路由器的最大空间限制了我们网络的规模。可 扩展性是公司与生俱来的特质,这样的公司基因为后续Google内部发展SDN铺平了道路。下图(本图来自参与本次会议阿里巴巴的kitty拍摄的会议记 录照片)是Google分享的其从2006至今网络的创新路径,包括2006年的Google Global Cache,2008的Watchtower、Freedome,2010的Onix、BwE、B4,2012的Jupiter、2014的 Andromeda、Quic、gRPC。

Google将目光朝向了Clos拓扑、商业硅晶片,还有集中式控制(这是SDN的主要特性),这些都是其数据中心网络模型的灵感来源。按照这样的 节奏,Google在校园网聚合和广域网之间发现了新的思维连接点。就这样在近10年,Google创建的B4和Andromeda在数据中心网络中扮演 了非常重要的角色。
数据中心的流量在2007年到2014年之间增长了近50倍,Google任然考虑到可伸缩性至关重要。不过其讨论的其他规模的统计数据太大了,以 至于ONS主席Guru Parulkar都难以置信其规模之大。例如Jupiter,Google第五代的数据中心架构,每个集群每秒能产生1.3G比特的数据。
“计算已经在一个十字路口。在Google,我们对网络特别感兴趣,因为它将改变计算的含义。”Vahdat补充道。他提到了摩尔定律,“每平方英 寸集成电路的晶体管数量在逐年翻倍,不过这个现象将很快结束。我们必须改变我们对计算的认知,以为我们不能一直为了跟上带宽的需要而让网络重复撤掉再替换 的循环。”
“使用SDN,Google能够满足这种日益增长的需求。其数据中心网络的基础设施可以支持规模化、性能、可用性,开发人员现在也有机会在Google云平台上进行修补。”Vahdat总结道。
SDNLAB语:Google对于基础设施高度重视,这也是美国世界顶级互联网公司的代表做法,无论是Amazon还是Facebook,他们都在做自己的硬件+软件的解决方案,既然没人能做那就我们自己做,这不仅仅是自信,更是一种对技术创新的执着。
好文章,需要你的鼓励
随着AI广泛应用推动数据中心建设热潮,运营商面临可持续发展挑战。2024年底美国已建成或批准1240个数据中心,能耗激增引发争议。除能源问题外,服务器和GPU更新换代产生的电子废物同样严重。通过采用模块化可修复系统、AI驱动资产跟踪、标准化数据清理技术以及与认证ITAD合作伙伴合作,数据中心可实现循环经济模式,在确保数据安全的同时减少环境影响。
剑桥大学研究团队首次系统探索AI在多轮对话中的信心判断问题。研究发现当前AI系统在评估自己答案可靠性方面存在严重缺陷,容易被对话长度而非信息质量误导。团队提出P(SUFFICIENT)等新方法,但整体问题仍待解决。该研究为AI在医疗、法律等关键领域的安全应用提供重要指导,强调了开发更可信AI系统的紧迫性。
超大规模云数据中心是数字经济的支柱,2026年将继续保持核心地位。AWS、微软、谷歌、Meta、甲骨文和阿里巴巴等主要运营商正积极扩张以满足AI和云服务需求激增,预计2026年资本支出将超过6000亿美元。然而增长受到电力供应、设备交付和当地阻力制约。截至2025年末,全球运营中的超大规模数据中心达1297个,总容量预计在12个季度内翻倍。
威斯康星大学研究团队开发出Prithvi-CAFE洪水监测系统,通过"双视觉协作"机制解决了AI地理基础模型在洪水识别上的局限性。该系统巧妙融合全局理解和局部细节能力,在国际标准数据集上创造最佳成绩,参数效率提升93%,为全球洪水预警和防灾减灾提供了更准确可靠的技术方案。