ZD至顶网网络频道 08月22日 编译:近期,澳大利亚研究机构Data61和悉尼大学的计算机科研人员评估了四个主流OpenFlow控制器:NOX、Maestro、Floodlight和Beacon,最终得出结论,认为OpenFlow架构的效率低,限制了性能的改善,而且还会消耗不必要的功率。
研究人员在ArXiv上发表了针对此次测试的论文,其中OpenDaylight也是测试对象之一,但其性能未包括在报告中,报告还表示,“它的性能太差,拿出来比较不能提供任何有用的东西。”
值得关注的是,无论是在基于Tilera的芯片网络处理器上运行,还是在基于E5-2450至强服务器上运行,在所有测试的控制器中并没有一款控制器能够达到最高线速。
就CBench软件定义网络(SDN)控制器性能指标而言,最佳Tilera设置仅仅勉强达到了每秒500万个请求,与每秒2900万请求的最高线速比不相去甚远。
而英特尔过去在数据包处理方面所付出的工作终于得到了回报,在x86设置下,Beacon能达到每秒2000万个请求;而其它控制器所能达到的最大值仅为每秒700万的请求。
由于SDN控制器处理网络数据包时用的是流量概念,就是说它们必须记住MAC地址,以便跟踪通信,而以太网交换机则只需要知道将数据包转发到哪个端口,另外,网络可扩展性也是一个大问题。
在性能指标测试里,在1000万个唯一MAC地址的请求下,没有控制器可以保持其峰值性能,基于Java的控制器(Bean和Floodlight)则在该规模上几乎陷于完全停顿状态。
该文章还指出,OpenFlow的本身存在结构性的低效率问题。文章作者提到了序列化: I/O线程,以及“学习中的交换应用里的关键数据结构:哈希表”。
据称,序列化对开销的影响最大,最有效的控制器也在数据包序列化上花了五分之一的时间,此限制是这些控制器面向对象设计原则固有的。每个独立的数据包都被控制器作为一个单独的对象处理,从而会对每个数据包引入不可忽视的开销。
最后,作者还提出了一种全新的SDN控制器设计,指出:“要用预分配的缓冲区处理新到达的数据包,而不是将其作为新的对象处理。控制器还应该考虑硬件特性,以达到在多核平台里限制高速缓存未分配的现象,以便可利用多核平台的网络芯片。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。