IEEE 802.11协议是当今无线局域网的通用技术标准,自1997年诞生至今已经发展出超过35个修正、补充与衍生版本,已经进入民用路由领域的 802.11a/b/g/n/ac则是当中发展得比较成熟的5个版本。然而在这个802.11n尚未完全退市,802.11ac仍需进一步普及的时 候,IEEE 802.11协议再次获得了更新,这次与大家见面的是IEEE 802.11ax标准。

IEEE 802.11ax标准是802.11协议的最新修订版本,与802.11ad和802.11ah这些补充与衍生版本不同,802.11ax是属于后续发展 标准,这意味着它很可能会实行商品化。与802.11ac标准相比,802.11ax可以说是前者的继承与发展版本,两者均使用5GHz频段,并支持 MU-MIMO技术,只是在802.11ac标准中,MU-MIMO属于“选配”,目前只在“802.11ac Wave 2”的旗舰产品上应用;而在802.11ax标准中,MU-MIMO属于“标配”,首发将直接提供支持。

此外802.11ax还有一个非常重要的革新,就是引入了OFDMA(Orthogonal Frequency Division Multiple Access)正交频分多址技术,该技术有在WiMax和LTE中使用,被誉为是下一代无线网络的核心技术。OFDMA技术可以把一个常规信道分为数个甚 至是数十个正交子信道,通过把这些子信道叠加并分配给不同用户的方式,大大提升数据传输的效率。
与802.11ac中使用的OFDM(Orthogonal Frequency Division Multiplexing)正交分频复用技术先比,OFDMA技术理论上可以为数据传输效率带来10倍的提升,即便考虑上干扰、损耗、调制解调速率等因 素,OFDMA的效率少说也是OFDM技术的4到5倍。

实际上802.11ax标准的首要目标就是把无线网络的速率提升至802.11ac标准的4倍,目前在5GHz频段和80MHz频宽 下,802.11ac的单流理论速率为433Mbps,按此计算802.11ax的在同等条件下的单流速率则高达1733MHz,如果再加上4x4 MU-MIMO技术和160MHz频宽的加成,802.11ax标准可以提供的理论速率将达到14Gbps,相当于1.75GB/s,直接秒杀了现在的 “千兆光纤”。

当然对于无线网络来说,速度是一个重要参数,但不是唯一的重要参数,网络覆盖范围也是非常重要的。IEEE 802.11ax与802.11ac同样都使用5GHz频段网络,在穿透障碍物的过程中能量会衰弱得比较快,而且“绕墙”能力不强,因此IEEE 802.11ax的网络覆盖表现与802.11ac网络相差不大。
最后我们来看看802.11ax标准什么时候会进入商品化阶段,802.11ac标准在2008年开始进入制定阶段,直至2011年才推出第一款路 由器产品,但真正算是开始推广的要到2013年,而2014年则开始大力普及,目前已经发展至“802.11ac Wave 2”,但是要完全取代802.11n成为市场上的绝对主流,那恐怕还需要一段很长的时间。
而在802.11ac成为市场上的绝对主流之前,802.11ax标准恐怕不会有什么大力推广的行为。实际上802.11ax协议尚未最终确定,部 分技术细节仍然在进行商讨,按照IEEE协会的安排,802.11ax标准恐怕要到2019年才会获得最终批准,之后可能会有些试验型产品投入市场,但是 大规模的普及,恐怕又是再过几年后的事情了。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。