ZD至顶网网络频道 12月09日 国际消息: 全球消费级和企业级无限局域网(WLAN)市场在2015年第三季度同比增长2.1%。根据IDC公布的全球WLAN季度追踪报告的结果显示,企业板块的增幅从前两个季度的低个位数增幅有小幅反弹,相比去年同期增长了4.3%。不过,这样乏力的增长只是2014年市场增幅的一半,甚至比上一年还要慢。与之前几年相比,目前年度增幅的放缓是受到两个因素的影响:全球经济短期不稳定因素导致WLAN新项目受阻,以及Wave 2 802.11ac的市场预期问题。
此外,802.11ac标准继续朝着快速采用的方向前进,在独立访问点出货量以及独立访问点收入方面分别占到了57%和72.7%的份额,这个速度比几年前从802.11a/b/g转向802.11n的速度明显要快得多。对企业WLAN需求的增长将继续是这个过渡的推动因素,尤其是新的企业移动使用实例正在被采用,IoT应用步入主流。
与此同时,消费WLAN市场收入比上个季度增长了16.2%,不过相比上个季度有小幅下滑(0.4%)。802.11ac标准在消费市场的采用,一直要明显低于企业板块。目前802.11ac标准在出货量和收入方面所占份额分别为15.3%和36%。
“2015年第三季度的增幅要弱于2014年及之前,但是从2015年第二季度我们看到的情况相比,仍然代表着很积极的趋势,”IDC网络基础设施研究分析师Nolan Greene表示。“802.11ac仍然是主流,因为它的覆盖面越来越大,但是这可能会被企业等待第二波产品的心态所抵消,这一波产品才刚开始出货。另外一个就是在美国的E级资金问题,目前正在处理中,对2015年第三季度的市场有所提振,这对于2015年第四季度来说是一个积极的风向标。”
从地理角度看,亚太地区(不包括日本)的企业级WLAN市场再一次表现出最强劲的增长,在2015年第三季度同比增长了14%。在这个地区,中国增长了19.8%,印度大幅增长48.4%,韩国增长11.2%。另一方面,澳大利亚下滑6.2%,香港下滑9.5%。北美同比增长4.9%,这主要是受益于第一季度美国K12教育E级资金流。欧洲、中东和非洲(EMEA)地区在该季度表现参差不齐。西欧同比增长2.3%,中欧和东欧下滑13.3%,中东和非洲下滑了5.4%。拉丁美洲下滑了2.7%,日本则表现持平。
“区域性的企业WLAN增长在2015年第三季度有明显不同,”全球网络季度追踪报告研究经历Petr Jirovsky这样表示。“像EMEA这样的地区仍然可以看到疲软的表现,这与除日本之外的亚太地区以及北美的增长形成鲜明对比。”
- 2015年第三季度思科的企业WLAN收入同比增长3.5%,略高于上个季度的2.8%,但是要低于市场的整体水平。该季度思科的全球市场份额为48%,低于2014年第三季度的48.3%。IDC认为Meraki云管理WLAN产品组合仍然是思科主要的增长动力之一。
- 惠普(惠普和Aruba,但不包括OEM业务)在2015年第三季度的表现超过了整体市场,同比增长11.8%,环比增长8.5%。该季度惠普的市场份额是17.4%,高于2015年第二季度的17.1%和2014年第三季度的16.2%。
- Ruckus在2015年第三季度表现抢眼,同比增长16%,环比增长7.6%。Ruckus目前在整体市场中占比7%,高于2014年第三季度的6.3%。
- Aerohive在2015年第三季度实现反弹,同比增长14.1%,环比增长13.2%,主要受益于在K-12教育垂直领域的强大定位,使得它在美国E级资金开支中占有更多的份额。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。