以太网交换机市场亮点
基于2022年第一季度同比增长12.7%的势头来看,以太网交换机市场的年化增长率将达到14.6%。2022年上半年该市场同比增长了13.7%。以太网交换机市场中的非数据中心细分市场收入(包括企业园区和分支机构的以太网交换机部署)同比增长5.8%,但端口出货量同比减少0.4%;此外,数据中心细分市场收入同比增长26.9%,端口出货量增长11.7%。
在超大规模和云提供商的推动下,高速以太网交换机市场继续呈现显着增长的态势。2022年第二季度,200/400 GbE交换机市场收入环比增长了67.4%,端口出货量增长89.5%。100GbE交换机市场收入同比增长了28.3%,端口出货量同比增长23.4%,销售额占市场总收入的26.2%。25/50 GbE交换机市场收入同比增长了22.1%,端口出货量同比增长5.4%。
低速交换机是市场中较为成熟的部分,增长较为温和。2022年第二季度,1GbE交换机市场收入同比比增长了2.6%,端口出货量增长1.6%。10GbE交换机市场收入下滑1.3%,端口出货量同比增长2.1%。2.5/5GbE交换机收入同比增长41.2%,环比增长6.0%,端口出货量同比增长58.7%,环比增长0.8%。
IDC云和数据中心网络研究副总裁Brad Casemore表示:“在多重种因素的推动下,以太网交换机市场在2022年第二季度保持强劲的增长。在数据中心细分市场,超大规模提供商和其他云服务提供商正在增加交换机,以跟上客户对主流应用和服务的强劲需求。在园区细分市场,追求数字化转型和弹性的企业也在增加交换机,而且令人印象深刻的是,这种增长是在供应链中断、通胀上升等逆势下实现的。以太网交换机市场最近几个季度的增长,表现出网络连接和数字基础设施在当今数字优先的商业世界中的重要性。”
从地区来看,全球大部分地区的以太网交换机市场都呈现增长态势。亚太地区(不包括日本和中国)市场同比增长了14.0%,中国市场增长9.3%,日本市场下滑6.4%。美国市场同比增长23.3%,加拿大市场增长10.4%,拉丁美洲市场增长18.8%。西欧市场同比增长14.8%,中东和非洲市场增长1.7%。中东欧市场下滑12.5%,俄罗斯市场下滑89.2%。
路由器市场亮点
服务提供商细分市场(包括通信服务提供商和云服务提供商)占路由器市场总收入的73.8%,同比增长2.2%,剩下份额被企业细分市场占据,同比增长20.2%。
从地区来看,亚太地区(不包括日本和中国)的综合服务提供商和企业路由器市场增长了3.4%。日本市场下滑6.9%,中国下滑1.8%。西欧地区同比增长4.2%,中欧和东欧市场同比下滑25.2%。中东和非洲市场增长9.3%。美国的企业细分市场增长了36.6%,服务提供商收入增长了16.8%,综合市场增长21.3%。拉丁美洲市场增长11.0%,加拿大市场下滑1.1%。
供应商亮点
2022年第二季度思科的以太网交换机收入同比增长了10.2%,市场份额为42.3%。此外,思科的服务提供商和企业路由器总收入该季度增长了4.1%,市场份额为33.2%。
该季度华为的以太网交换机收入同比增长了9.4%,市场份额为10.6%。服务提供商和企业路由器总收入同比增长5.3%,市场份额为32.8%。
Arista Networks的以太网交换机收入同比增长了55.1%,市场份额为10.1%。
新华三的以太网交换机收入同比增长了4.8%,市场份额为6.3%。服务提供商和企业路由器总收入同比增长5.6%,市场份额为2.5%。
HPE的以太网交换机收入同比下滑了5.5%,市场份额为5.5%。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。