由物联网、云、视频等引发的网络流量增长给企业数据中心和广域网带来了不小的压力,为满足网络流量指数增长预期,博科近期宣布推出新一代数据中心路由解决方案Brocade SLX 9850,它采用可扩展和端口高密度设计,一方面提供了高性能的网络矩阵容量,另一方面SLX 9850一系列的网络创新特性也满足了数字时代对网络基础设施的需求,例如网络可视化和网络自动化等。
博科中国区技术经理谷增云在Brocade SLX 9850发布沟通会上表示,“除了满足未来网络容量的增长,保护企业投资外,未来的网络还要解除对业务敏捷性的束缚、提高SLAs和运营效率。”
通过独特的软硬件创新组合,SLX 9850路由器嵌入Brocade SLX Insight Architecture,提供普遍的网络可视性,通过智能便捷地获取网络流量,可以快速发现网络问题、满足关键SLAs。SLX 9850还采用了Brocade Workflow Composer,以提供基于服务器、DevOps风格的网络自动化。
提高业务敏捷性
新的网络可视性是SLX 9850进行的一项革新,以往管理员要抓取业务流量往往是一项复杂的工作,设端口镜像、PC连接才可以导出,另外交换机的速率和PC速率不匹配也会增加工作的复杂度。现在,Brocade SLX 9850提供了一个独立的控制模块,其上的虚机可以安装任何第三方分析工具,这个虚机到每个板卡都有一个10G的接口,这样可以实时地对数据进行抓包,并方便地进行网络监测与故障排除,“这是博科和别人做得不一样的地方。”谷增云说。
这个功能是由Brocade SLX Insight Architecture实现的,它包括一个基于开放内核的虚拟机(KVM)环境,用于运行第三方和客户的具体监测、故障排除和分析应用。其灵活的流选项,用于把捕捉的数据带内和带外流交付至分析应用。
提高SLAs与运营
Brocade SLX 9850还提供了Dev-Ops风格的网络自动化,它由Brocade Workflow Composer演化而来,Dev-Ops的方法消除了跨功能孤岛,便于网络和所有其它域以编程方式参与到整个服务交付链中,进而实现按需服务交付和业务敏捷性。BWC是一个专为满足这些需求而设计的独特网络自动化平台,可帮助跨域工作流程桥接孤岛,提高业务敏捷性。
Brocade Workflow Composer现在支持SLX 9850并提供交钥匙式、可定制的DIY网络工作流,让客户按照自己的步调实施自动化。
高容量、高性能、高缓存
在性能和容量上,Brocade SLX 9850提供了230 Tbps非阻塞机箱矩阵容量,具有行业领先的10/40/100 GE价格和每个刀片密度。通过专为最高的密度和规模而设计的独特1.5 RU模块化线路卡,SLX 9850可以支持最多400万个路由器、200万全彩色统计和200万策略,以满足目前和未来以指数增长的带宽、设备和服务。
另外,SLX 9850提供了高达36G的大路由缓存,缓存能力是衡量路由器QoS能力的重要指标,要求路由器在网络流量突发的情况下,发挥最高网络性能。谷增云说,“SLX 9850 36G的缓存,如果每个端口打满流量,可以缓存100毫秒报文,它还行业里缓存是最大的。”
SLX 9850还采用无背板设计,解除背板对容量提升的限制,增加容量无需换机箱,增强扩展性。
目前,Brocade SLX 9850已经在阿姆斯特丹互联网交换中心(AMS-IX)得到部署应用,支撑其以节约成本、空间和能源的方式大幅提高100 GbE服务的数量和密度,同时为未来的平台扩张留出了庞大的空间。
好文章,需要你的鼓励
无人机食品配送服务商Flytrex与全球知名披萨连锁品牌Little Caesars宣布合作,推出全新Sky2无人机,最大载重达4公斤,可一次配送两个大披萨及饮料,满足全家用餐需求。Sky2支持最远6.4公里的配送范围,平均从起飞到送达仅需4.5分钟。首个试点门店已在德克萨斯州怀利市上线,并实现与Little Caesars订单系统的直接集成。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
法国社会住房项目ViliaSprint?已正式完工,成为欧洲最大的3D打印多户住宅建筑,共12套公寓,建筑面积800平方米。项目由PERI 3D Construction使用COBOD BOD2打印机完成,整体工期较传统建造缩短3个月,实际打印仅用34天(原计划50天),现场操作人员从6人减至3人,建筑废料率从10%降至5%。建筑采用可打印混凝土,集成光伏板及热泵系统,能源自给率约达60%。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。