至顶网网络频道 01月18日 综合消息: 思博伦通信助力业界领先的以太网交换芯片及SDN白牌解决方案提供商盛科网络, 成功完成了面向5G时代的速率基础和业务基础联合测试,展示了富有前瞻性的5G网络承载与互联方案。
5G网络更高的传输速率和更为灵活的传输组网特点,本次联合测试重点验证了盛科E550平台面向5G的100G/50G/25G基础速率下互联和高性能转发能力、快速重路由(Fast Re-route,FRR)和分段路由支持能力,测试结果展示了盛科网络E550平台优秀的以太网交换性能,以及对5G承载网络关键技术上的支持与创新。
5G时代,随着超高清视频、网络直播、游戏、VR等大带宽应用的进一步发展,网络承载速率将迈入“后10GE”时代,25GE、50GE甚至100GE将成为接入及汇聚网络的主流速率。在业务层面上,面对更加丰富的业务和多样化的用户需求,运营商需要承载网络更加可订制化和职能化。SDN架构将在5G承载网络中得到极大的应用,其中以MPLS标签为承载基础的分段路由已得到运营商的极大关注,其面向SDN的业务部署灵活性和基于标签的转发架构,很好地将传统业务框架与新型业务部署方式有效结合,在保障安全及性能的同时提供了丰富的业务灵活性。
测试展示的盛科E550 平台是基于盛科网络最新发布的第五代高性能以太网核心交换芯片DUET2(CTC7148)搭建,DUET2单芯片可支持640Gbps的转发速率,支持Multi-Gig新速率,支持10G/25G/40G/50G/100G端口、分段路由、无线管理协议CAPWAP专有引擎及网络安全MACSec等新特性。在创新应用的同时,DUET2也延续并增强了其系列芯片高性价比和低功耗的优势。
盛科网络市场部总监王峰表示:“盛科一直致力于为客户提供最富竞争力和创新力的网络承载方案。盛科过去的芯片已经规模部署在国内外的运营商承载网络,赢得了客户的好评。盛科也投入了大量的研发来满足5G时代的全新要求和挑战。除了基础速率的快速升级,应用的融合和SDN理念的实践落地也为网络的发展注入了新的活力。我们很高兴能够和思博伦一起,借助盛科的最新芯片平台,展示面向5G的网络互联关键技术创新,也期待这些技术能够在不久的将来,为5G业务的部署与发展贡献力量。”
测试采用思博伦Spirent TestCenter网络性能测试仪,配以目前业界密度最高的DX3-100GQ-T12多速率测试模块。DX3-100GQ-T12五速率测试模块,单槽位可支持12个100G或40G端口,或24个50G端口,或48个25G或10G端口,支持BASE-R FEC、RS-FEC、Auto-negotiation、Link Training 等关键接口特性,支持包括传统路由/交换/接入协议和新的OpenFlow、分段路由等SDN技术测试,能够对高密度路由器、交换机和移动承载网络产品进行全面测试。
Spirent TestCenter N4U机箱
业界密度最高的DX3-100GQ-T12多速率测试模块
思博伦通信大中华区销售总监马林表示:“中国在第五代移动通信的投入上目前领先于全球,所以在中国我们率先看到5G网络相关的技术和方案获得进展和突破。思博伦通信在5G相关的承载网技术测试、空口技术测试、核心网技术测试等方面,都投入大量研发资源,并已经推出对应的测试解决方案。本次和盛科网络的联合测试是思博伦通信在5G承载网络测试上的一次非常有意义的实践,思博伦愿意与包括芯片厂商、设备厂商和运营商一起,推动5G网络的发展。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。