ZD至顶网网络频道 12月09日 国际消息: 全球消费级和企业级无限局域网(WLAN)市场在2015年第三季度同比增长2.1%。根据IDC公布的全球WLAN季度追踪报告的结果显示,企业板块的增幅从前两个季度的低个位数增幅有小幅反弹,相比去年同期增长了4.3%。不过,这样乏力的增长只是2014年市场增幅的一半,甚至比上一年还要慢。与之前几年相比,目前年度增幅的放缓是受到两个因素的影响:全球经济短期不稳定因素导致WLAN新项目受阻,以及Wave 2 802.11ac的市场预期问题。
此外,802.11ac标准继续朝着快速采用的方向前进,在独立访问点出货量以及独立访问点收入方面分别占到了57%和72.7%的份额,这个速度比几年前从802.11a/b/g转向802.11n的速度明显要快得多。对企业WLAN需求的增长将继续是这个过渡的推动因素,尤其是新的企业移动使用实例正在被采用,IoT应用步入主流。
与此同时,消费WLAN市场收入比上个季度增长了16.2%,不过相比上个季度有小幅下滑(0.4%)。802.11ac标准在消费市场的采用,一直要明显低于企业板块。目前802.11ac标准在出货量和收入方面所占份额分别为15.3%和36%。
“2015年第三季度的增幅要弱于2014年及之前,但是从2015年第二季度我们看到的情况相比,仍然代表着很积极的趋势,”IDC网络基础设施研究分析师Nolan Greene表示。“802.11ac仍然是主流,因为它的覆盖面越来越大,但是这可能会被企业等待第二波产品的心态所抵消,这一波产品才刚开始出货。另外一个就是在美国的E级资金问题,目前正在处理中,对2015年第三季度的市场有所提振,这对于2015年第四季度来说是一个积极的风向标。”
从地理角度看,亚太地区(不包括日本)的企业级WLAN市场再一次表现出最强劲的增长,在2015年第三季度同比增长了14%。在这个地区,中国增长了19.8%,印度大幅增长48.4%,韩国增长11.2%。另一方面,澳大利亚下滑6.2%,香港下滑9.5%。北美同比增长4.9%,这主要是受益于第一季度美国K12教育E级资金流。欧洲、中东和非洲(EMEA)地区在该季度表现参差不齐。西欧同比增长2.3%,中欧和东欧下滑13.3%,中东和非洲下滑了5.4%。拉丁美洲下滑了2.7%,日本则表现持平。
“区域性的企业WLAN增长在2015年第三季度有明显不同,”全球网络季度追踪报告研究经历Petr Jirovsky这样表示。“像EMEA这样的地区仍然可以看到疲软的表现,这与除日本之外的亚太地区以及北美的增长形成鲜明对比。”
- 2015年第三季度思科的企业WLAN收入同比增长3.5%,略高于上个季度的2.8%,但是要低于市场的整体水平。该季度思科的全球市场份额为48%,低于2014年第三季度的48.3%。IDC认为Meraki云管理WLAN产品组合仍然是思科主要的增长动力之一。
- 惠普(惠普和Aruba,但不包括OEM业务)在2015年第三季度的表现超过了整体市场,同比增长11.8%,环比增长8.5%。该季度惠普的市场份额是17.4%,高于2015年第二季度的17.1%和2014年第三季度的16.2%。
- Ruckus在2015年第三季度表现抢眼,同比增长16%,环比增长7.6%。Ruckus目前在整体市场中占比7%,高于2014年第三季度的6.3%。
- Aerohive在2015年第三季度实现反弹,同比增长14.1%,环比增长13.2%,主要受益于在K-12教育垂直领域的强大定位,使得它在美国E级资金开支中占有更多的份额。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。