ZD至顶网网络频道 08月27日 综合消息: 博科(Brocade)两个月前将Ruckus Wireless收归旗下。此举对博科本财季的表现有帮助。博科2016年第3财季的收入同比上涨7%,达 5.91亿美元, 环比上涨13%。但该财季的利润仅 1050 万美元,同比下跌89%,去年同期的利润为9170万美元,环比下跌23.3%,上季度的利润为 4300万美元。
究其原因部分是因为收购相关项,包括与收购相关的库存品低毛利率和递延收入、收购及整合成本以及无形资产摊销的增加和基于股票的补偿。
各产品部门的情况如下:
√ SAN 产品收入为 2.82 亿美元,同比下降 9%
• 光纤通道控制器销售下降 23%
• 固定配置交换机销售增长 3%
• IP 网络产品收入为 2.09 亿美元,包括 7300 万美元的Ruckus Wireless产品收入,同比上涨36% 。

IP 网络业务受低美国联邦收入的影响,同比下跌 26%,主要由大订单的时间导致的。
博科指,"我们的SAN收入同比下跌和环比下跌主要是因为许多大型交易的完成时间长,而交换机收入的改善则主要是全闪存阵列部署的突出需求。就总体而言,SAN 产品收入下降,与我们的许多OEM 合作伙伴就较弱的存储需求环境所作的评论是一致的。"
网络监控
博科更新了旗下的分析监测平台,平台现在包括:
• 流收集 --- 每个设备级别、应用程序或其他数据逻辑组的自定义监测,可简化故障排除,加快规划过程和为用户提供更好地监视选项
• 在网络顾问(Network Advisor)里优化了用户工作流,可加快问题行为的确认和根本原因的分析
• 侦查模式提供了直观的视图,有助探明下层细节
• 流过滤功能可以在成千个设备和数以万计流的复杂、虚拟化环境里找到关键信息
• 可定制报告功能可将度量和事件关联起来,可将行为分析的趋势归总,可直观地将合规性和性能SLA演示出来
• 网络顾问的新数据库架构为大型环境提供了更快响应的用户体验和更强的可扩展性
• 新的人性化仪表板用户界面和现代硬件设计
结构层次上的光纤通道NVMe
光纤通道 SAN业务推出了32Gbit/s 产品,而业务则受到偏爱以太网的超级融合基础架构系统的威胁,结构层次上的NVMe 交换取代共享存储用的传统FC/SCSI-连接,这对光纤通道 SAN业务也有威胁。本月早些时候,光纤通道工业协会 (FCIA)在美国加州圣克拉拉召开的闪存峰会上议首次公开演示了利用光纤通道完成的结构层次上的NVMe。

QLogic图:利用光纤通道完成的结构层次上的NVMe
• 光纤通道延迟减少了 55%以上
• 多协议存储区域网络 (SAN) 通信简化了现有的 FC 存储资源和FC 存储上NVMe之间的数据移动
• 利用现有光纤通道结构资源进行托管并发 NVMe 和 SCSI 数据通信
• 打造 NVMe 数据中心的工具 --- 光纤通道NVMe数据包捕获和 NVMe 解码
如果安装 FC 基群能存在FC 结构层次上的NVMe升级路径,那么对博科业务是有益处的。网上可以搜到讨论该想法的 QLogic 白皮书。
博科下季度收入预期为 6.3 亿至 6.5 亿美元之间;中间点为6.4亿美元,按中间点算全年收入为23亿美元。比去年的 22.6亿美元略有上升。
笔者认为,将光纤通道安装基群迁移到结构层次上的NVMe运行是件明显不过的事情。客户会爱上结构层次上NVMe的采用方便,还可以大幅降低数据访问延迟。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。