ZD至顶网网络频道 08月27日 综合消息: 博科(Brocade)两个月前将Ruckus Wireless收归旗下。此举对博科本财季的表现有帮助。博科2016年第3财季的收入同比上涨7%,达 5.91亿美元, 环比上涨13%。但该财季的利润仅 1050 万美元,同比下跌89%,去年同期的利润为9170万美元,环比下跌23.3%,上季度的利润为 4300万美元。
究其原因部分是因为收购相关项,包括与收购相关的库存品低毛利率和递延收入、收购及整合成本以及无形资产摊销的增加和基于股票的补偿。
各产品部门的情况如下:
√ SAN 产品收入为 2.82 亿美元,同比下降 9%
• 光纤通道控制器销售下降 23%
• 固定配置交换机销售增长 3%
• IP 网络产品收入为 2.09 亿美元,包括 7300 万美元的Ruckus Wireless产品收入,同比上涨36% 。
IP 网络业务受低美国联邦收入的影响,同比下跌 26%,主要由大订单的时间导致的。
博科指,"我们的SAN收入同比下跌和环比下跌主要是因为许多大型交易的完成时间长,而交换机收入的改善则主要是全闪存阵列部署的突出需求。就总体而言,SAN 产品收入下降,与我们的许多OEM 合作伙伴就较弱的存储需求环境所作的评论是一致的。"
网络监控
博科更新了旗下的分析监测平台,平台现在包括:
• 流收集 --- 每个设备级别、应用程序或其他数据逻辑组的自定义监测,可简化故障排除,加快规划过程和为用户提供更好地监视选项
• 在网络顾问(Network Advisor)里优化了用户工作流,可加快问题行为的确认和根本原因的分析
• 侦查模式提供了直观的视图,有助探明下层细节
• 流过滤功能可以在成千个设备和数以万计流的复杂、虚拟化环境里找到关键信息
• 可定制报告功能可将度量和事件关联起来,可将行为分析的趋势归总,可直观地将合规性和性能SLA演示出来
• 网络顾问的新数据库架构为大型环境提供了更快响应的用户体验和更强的可扩展性
• 新的人性化仪表板用户界面和现代硬件设计
结构层次上的光纤通道NVMe
光纤通道 SAN业务推出了32Gbit/s 产品,而业务则受到偏爱以太网的超级融合基础架构系统的威胁,结构层次上的NVMe 交换取代共享存储用的传统FC/SCSI-连接,这对光纤通道 SAN业务也有威胁。本月早些时候,光纤通道工业协会 (FCIA)在美国加州圣克拉拉召开的闪存峰会上议首次公开演示了利用光纤通道完成的结构层次上的NVMe。
QLogic图:利用光纤通道完成的结构层次上的NVMe
• 光纤通道延迟减少了 55%以上
• 多协议存储区域网络 (SAN) 通信简化了现有的 FC 存储资源和FC 存储上NVMe之间的数据移动
• 利用现有光纤通道结构资源进行托管并发 NVMe 和 SCSI 数据通信
• 打造 NVMe 数据中心的工具 --- 光纤通道NVMe数据包捕获和 NVMe 解码
如果安装 FC 基群能存在FC 结构层次上的NVMe升级路径,那么对博科业务是有益处的。网上可以搜到讨论该想法的 QLogic 白皮书。
博科下季度收入预期为 6.3 亿至 6.5 亿美元之间;中间点为6.4亿美元,按中间点算全年收入为23亿美元。比去年的 22.6亿美元略有上升。
笔者认为,将光纤通道安装基群迁移到结构层次上的NVMe运行是件明显不过的事情。客户会爱上结构层次上NVMe的采用方便,还可以大幅降低数据访问延迟。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。