2015开放网络峰会(ONS)如期举行,Google依然是大会最璀璨的明星。6月17日,Google网络研究院及技术主管Amin Vahdat给我们带来了Google的分享。在他的keynote上给我们回顾了这家搜索引擎巨头在数据中心网络上前进的步伐。
Vahhdat介绍了Google对SDN的理解,从最简单的SDN到SDN的各种场景应用,也只有在技术上深耕的大牛公司才能将技术讲的如此简单 明了。随后,他讨论了在往届ONS上Google分享的SDN案例,包括B4、Google的SD-WAN、网络虚拟化服务Andromeda。这一次, 他给我们分享了Google数据中心的内部网络。
几年前,传统网络架构已经不能满足Google数据中心的规模上的需求。“我们买不到一个数据中心系统能够满足我们的分布式系统的需 求。”Vahdat说道。“这些传统网络仅仅是不能满足我们数据中心带宽的需求。”对Google而言,可买的路由器的最大空间限制了我们网络的规模。可 扩展性是公司与生俱来的特质,这样的公司基因为后续Google内部发展SDN铺平了道路。下图(本图来自参与本次会议阿里巴巴的kitty拍摄的会议记 录照片)是Google分享的其从2006至今网络的创新路径,包括2006年的Google Global Cache,2008的Watchtower、Freedome,2010的Onix、BwE、B4,2012的Jupiter、2014的 Andromeda、Quic、gRPC。
Google将目光朝向了Clos拓扑、商业硅晶片,还有集中式控制(这是SDN的主要特性),这些都是其数据中心网络模型的灵感来源。按照这样的 节奏,Google在校园网聚合和广域网之间发现了新的思维连接点。就这样在近10年,Google创建的B4和Andromeda在数据中心网络中扮演 了非常重要的角色。
数据中心的流量在2007年到2014年之间增长了近50倍,Google任然考虑到可伸缩性至关重要。不过其讨论的其他规模的统计数据太大了,以 至于ONS主席Guru Parulkar都难以置信其规模之大。例如Jupiter,Google第五代的数据中心架构,每个集群每秒能产生1.3G比特的数据。
“计算已经在一个十字路口。在Google,我们对网络特别感兴趣,因为它将改变计算的含义。”Vahdat补充道。他提到了摩尔定律,“每平方英 寸集成电路的晶体管数量在逐年翻倍,不过这个现象将很快结束。我们必须改变我们对计算的认知,以为我们不能一直为了跟上带宽的需要而让网络重复撤掉再替换 的循环。”
“使用SDN,Google能够满足这种日益增长的需求。其数据中心网络的基础设施可以支持规模化、性能、可用性,开发人员现在也有机会在Google云平台上进行修补。”Vahdat总结道。
SDNLAB语:Google对于基础设施高度重视,这也是美国世界顶级互联网公司的代表做法,无论是Amazon还是Facebook,他们都在做自己的硬件+软件的解决方案,既然没人能做那就我们自己做,这不仅仅是自信,更是一种对技术创新的执着。
好文章,需要你的鼓励
是德科技高级副总裁兼通信解决方案事业部总裁Kailash Narayanan现场指出,算力固然重要,但如果能耗过高,技术的实用性将大打折扣,因此,所有的高速、高性能计算,都必须在极低的功耗下实现,这是AI等技术能否大规模落地的核心前提。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
来自上海交通大学和浙江大学等机构的研究团队开发出首个AI"记忆操作系统"MemOS,解决了AI系统无法实现人类般持久记忆和学习的根本限制。该系统将记忆视为核心计算资源进行调度、共享和演化,在时间推理任务中相比OpenAI记忆系统性能提升159%。MemOS采用三层架构设计,通过标准化记忆单元实现跨平台记忆迁移,有望改变企业AI部署模式。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。