2015开放网络峰会(ONS)如期举行,Google依然是大会最璀璨的明星。6月17日,Google网络研究院及技术主管Amin Vahdat给我们带来了Google的分享。在他的keynote上给我们回顾了这家搜索引擎巨头在数据中心网络上前进的步伐。
Vahhdat介绍了Google对SDN的理解,从最简单的SDN到SDN的各种场景应用,也只有在技术上深耕的大牛公司才能将技术讲的如此简单 明了。随后,他讨论了在往届ONS上Google分享的SDN案例,包括B4、Google的SD-WAN、网络虚拟化服务Andromeda。这一次, 他给我们分享了Google数据中心的内部网络。
几年前,传统网络架构已经不能满足Google数据中心的规模上的需求。“我们买不到一个数据中心系统能够满足我们的分布式系统的需 求。”Vahdat说道。“这些传统网络仅仅是不能满足我们数据中心带宽的需求。”对Google而言,可买的路由器的最大空间限制了我们网络的规模。可 扩展性是公司与生俱来的特质,这样的公司基因为后续Google内部发展SDN铺平了道路。下图(本图来自参与本次会议阿里巴巴的kitty拍摄的会议记 录照片)是Google分享的其从2006至今网络的创新路径,包括2006年的Google Global Cache,2008的Watchtower、Freedome,2010的Onix、BwE、B4,2012的Jupiter、2014的 Andromeda、Quic、gRPC。
Google将目光朝向了Clos拓扑、商业硅晶片,还有集中式控制(这是SDN的主要特性),这些都是其数据中心网络模型的灵感来源。按照这样的 节奏,Google在校园网聚合和广域网之间发现了新的思维连接点。就这样在近10年,Google创建的B4和Andromeda在数据中心网络中扮演 了非常重要的角色。
数据中心的流量在2007年到2014年之间增长了近50倍,Google任然考虑到可伸缩性至关重要。不过其讨论的其他规模的统计数据太大了,以 至于ONS主席Guru Parulkar都难以置信其规模之大。例如Jupiter,Google第五代的数据中心架构,每个集群每秒能产生1.3G比特的数据。
“计算已经在一个十字路口。在Google,我们对网络特别感兴趣,因为它将改变计算的含义。”Vahdat补充道。他提到了摩尔定律,“每平方英 寸集成电路的晶体管数量在逐年翻倍,不过这个现象将很快结束。我们必须改变我们对计算的认知,以为我们不能一直为了跟上带宽的需要而让网络重复撤掉再替换 的循环。”
“使用SDN,Google能够满足这种日益增长的需求。其数据中心网络的基础设施可以支持规模化、性能、可用性,开发人员现在也有机会在Google云平台上进行修补。”Vahdat总结道。
SDNLAB语:Google对于基础设施高度重视,这也是美国世界顶级互联网公司的代表做法,无论是Amazon还是Facebook,他们都在做自己的硬件+软件的解决方案,既然没人能做那就我们自己做,这不仅仅是自信,更是一种对技术创新的执着。
好文章,需要你的鼓励
工业升级的关键,或许在于智能本身。“工业+机器人”将成为通向下一阶段工业体系的核心抓手。——黄仁勋。
浙江大学等联合研究发现,AI强化学习效果取决于"模型-任务对齐"程度。当AI擅长某任务时,单样本训练、错误奖励等非常规方法也有效;但面对陌生任务时,这些方法失效,只有标准训练有用。研究团队通过大量实验证实,这种"舒适圈"现象比数据污染更能解释训练差异,为AI训练策略优化提供了新思路。
瑞士政府正式发布了自主研发的人工智能模型,该模型完全基于公共数据进行训练。这一举措标志着瑞士在AI技术自主化方面迈出重要一步,旨在减少对外国AI技术的依赖,同时确保数据安全和隐私保护。该模型的推出体现了瑞士对发展本土AI能力的战略重视。
巴赫切希尔大学研究团队通过对五种不同规模YOLO模型的量化鲁棒性测试发现,静态INT8量化虽能带来1.5-3.3倍速度提升,但会显著降低模型对噪音等图像损伤的抵抗能力。他们提出的混合校准策略仅在大型模型处理噪音时有限改善,揭示了效率与鲁棒性平衡的复杂挑战。