ZD至顶网网络频道 08月22日 编译:近期,澳大利亚研究机构Data61和悉尼大学的计算机科研人员评估了四个主流OpenFlow控制器:NOX、Maestro、Floodlight和Beacon,最终得出结论,认为OpenFlow架构的效率低,限制了性能的改善,而且还会消耗不必要的功率。
研究人员在ArXiv上发表了针对此次测试的论文,其中OpenDaylight也是测试对象之一,但其性能未包括在报告中,报告还表示,“它的性能太差,拿出来比较不能提供任何有用的东西。”
值得关注的是,无论是在基于Tilera的芯片网络处理器上运行,还是在基于E5-2450至强服务器上运行,在所有测试的控制器中并没有一款控制器能够达到最高线速。
就CBench软件定义网络(SDN)控制器性能指标而言,最佳Tilera设置仅仅勉强达到了每秒500万个请求,与每秒2900万请求的最高线速比不相去甚远。
而英特尔过去在数据包处理方面所付出的工作终于得到了回报,在x86设置下,Beacon能达到每秒2000万个请求;而其它控制器所能达到的最大值仅为每秒700万的请求。
由于SDN控制器处理网络数据包时用的是流量概念,就是说它们必须记住MAC地址,以便跟踪通信,而以太网交换机则只需要知道将数据包转发到哪个端口,另外,网络可扩展性也是一个大问题。
在性能指标测试里,在1000万个唯一MAC地址的请求下,没有控制器可以保持其峰值性能,基于Java的控制器(Bean和Floodlight)则在该规模上几乎陷于完全停顿状态。
该文章还指出,OpenFlow的本身存在结构性的低效率问题。文章作者提到了序列化: I/O线程,以及“学习中的交换应用里的关键数据结构:哈希表”。
据称,序列化对开销的影响最大,最有效的控制器也在数据包序列化上花了五分之一的时间,此限制是这些控制器面向对象设计原则固有的。每个独立的数据包都被控制器作为一个单独的对象处理,从而会对每个数据包引入不可忽视的开销。
最后,作者还提出了一种全新的SDN控制器设计,指出:“要用预分配的缓冲区处理新到达的数据包,而不是将其作为新的对象处理。控制器还应该考虑硬件特性,以达到在多核平台里限制高速缓存未分配的现象,以便可利用多核平台的网络芯片。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。