ZD至顶网网络频道 12月08日 综合消息:在2016年GNTC全球网络技术大会上,全球领先的信息化平台与应用解决方案提供商赛特斯,对外正式发布了在NFV数据转发性能上的重大突破,单CPU 120G转发性能突破瓶颈。作为最具竞争力的SDN/NFV核心技术提供商,赛特斯近年来始终保持了持续的研发投入与技术引领,此次新性能的发布正是赛特斯人在NFV领域深耕的突破性成果。
NFV转发性能一直是业界痛点,也是阻碍NFV大规模商用的瓶颈之一。运营商的电信网络以及核心网络对性能有极高的要求。传统的专用设备性能高但价格昂贵,运维复杂。使用通用硬件的NFV具有灵活性和成本优势,但在数据转发平面上的性能却远远不如采用NPU(Network Processing Unit)的专用硬件。目前业界普遍认为NFV更适合部署在对性能要求不高的网络场景。如何进一步提高I/O接口的数据转发能力,是加速NFV应用部署的关键问题所在。
赛特斯长期致力于对NFV底层硬件、系统层面和业务转发流程的优化,在2016年初巴塞罗那展会期间赛特斯发布的FlexBNG 秦版本中,在转发层面就已经达到了单CPU 40G的能力,但还存在着Cache Miss 高、内存访问量大、转发流程复杂等问题。赛特斯的研发人员经过刻苦攻关,结合Intel DPDK 与其他自主研发技术,使赛特斯新一代数据平面的性能得到了极大提升——单CPU 120G的转发能力。
赛特斯采用了无锁化设计提高程序效率,利用表项拆分、内存预取、限制表项在转发过程中的访问次数等技术减少内存的访问,提高Cache 的命中率;在数据结构、用户处理流程、流表匹配上也都进行了多项优化,提高了报文转发流程的效率。在使用14核DELL R730 服务器的测试中,实现了32K PPPoE用户 256字节 120G线速转发,与原有秦版本数据平面相比,在同等资源的情况下,性能提升了2倍之多。
NFV转发性能的提升,意味着网络虚拟化的适用范围不再局限于对转发能力要求低而对CPU、内存以及存储要求高的系统,而为进入运营商一直使用传统硬件的领域做好了充足的准备。在高转发性能的基础上,凭借软件与硬件的解耦,SDN与NFV的结合能够更加灵活地满足业务需求的快速更新,实现对网络资源的按需调用和弹性共享,给网络带来更多的敏捷性,并且大幅降低投资成本与运营成本。
由于NFV基于通用硬件平台实现网络业务,因此在优化方面除了传统意义上彼此独立的软件优化和硬件优化外,还需要寻找通用硬件架构与软件指令之间的契合点,这是一个区别于传统设备性能优化的特点,也更考验硬件厂商和软件厂商的协作能力。120G转发性能的提升是赛特斯在网络创新与变革的征途上迈出的重要而坚实的一步。赛特斯研发人员相信,通用x86服务器的性能还有进一步调优、提升的潜力,在这个过程中,赛特斯将持续地积累和摸索,同时需要更多的合作和交流,以促进良性生态系统的形成和发展。
在此次全球网络技术大会上,赛特斯柔性网络产品线总监李晏还做了“上下求索,止于至善——NFV性能优化的实践”的报告,分享了赛特斯在虚拟化网元转发性能方面的实践和积累,展示了一年多以来赛特斯在虚拟化网元转发性能方面获得的成果。
FIP产品线总监李晏发表题为“上下求索,止于至善——NFV性能优化的实践”演讲
“这次赛特斯在vBRAS性能优化领域取得的突破,充分证明了标准X86硬件的存在很大的性能潜力,适时弥补了虚拟化网元的最大短板,极大地提升了虚拟化网元在与传统设备对标时的竞争力。”李晏表示,“相信随着这次突破,纯虚拟化网元的应用领域也必然会得到拓展,会有更多的中小厂商进入这个领域,以开放的态度和积极的实践共同构建一个健康良性的生态,从而促进整个产业的发展。”
关于赛特斯
赛特斯信息科技股份有限公司(CertusNet Inc.)是全球领先的信息化平台与应用解决方案提供商。作为柔性技术与柔性服务理念的开创者、践行者,赛特斯积极贯彻落实“互联网+”的国家战略,致力于为全球用户、企业和政府机构提供涉及云、管道、终端多个业务环节的柔性服务,通过打造独具特色的柔性网络、柔性云、柔性制造三大产业集群,构建柔性系统的持续竞争力,以创新带来的价值推动社会进步,为客户提供行之有效的智慧的解决方案与服务。
关于2016年GNTC全球网络技术大会
以“新技术•新架构•新网络”为主题的“2016全球网络技术大会”于2016年12月7日-9日在北京喜来登长城饭店全面开启,邀请全球顶尖专家,通过1场大会(全球网络技术发展趋势)、1场主题论坛和圆桌论坛(主题:网络重构之路)、6场技术峰会(IPv6、SDN、NFV、5G、NB-IoT、云和数据中心)、数场workshop(P4、CORD等),在3天的时间里分享最纯粹的技术趋势,展示最新最全的网络案例。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
时尚零售巨头维多利亚的秘密因安全事件导致网站和线上订单服务中断,已立即启动应急响应、邀请第三方专家协助恢复运营,实体店仍正常营业。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。