爱立信宣布为独立5G NR(5G SA)系统升级无线接入网(RAN)软件,该软件提供降等的5G功能(RedCap),以降低硬件复杂程度、延长电池寿命并支持一系列主要基于物联网的用例,特别是可穿戴设备、视频监控设备和工业传感器。新的软件解决方案将从(2023年)11月开始上市。
RedCap是5G NR网络的第16版功能集的一个松散部分,刚刚进入市场;然而,它在去年(2022年)3月冻结的第17版中得到了极大的增强,该版本进一步规范了RedCap的关键功能。第17版预计将在明年上半年(2024年)商用首发。爱立信此次发布可谓捷足先登,该公司将RedCap称作是“5G的下一波浪潮”;爱立信表示该公司新发布的版本正是乘着这股浪潮。
爱立信表示,先人一步把握时机将“为下一波5G发展培育早期生态系统”。新发布的软件工作的硬件和其为移动运营商部署的5G NR硬件相同;它专门用于爱立信5G宏网络。该公司补充表示:“RedCap将为能够连接到5G网络的新型设备强化生态系统。”
爱立信继续表示: "爱立信RedCap将支持优化设备能耗的精简程序,帮助可穿戴设备实现目前只适用于LTE设备的功能。通过新的5G RAN软件解决方案,通信服务提供商可以在FDD(频分双工)和TDD(时分双工)频谱上为不同的消费者和企业用例以及工业环境提供更多的连接选择。”
表面上看,RedCap在蜂窝结构中位于物联网装备的LTE-M和宽带式LTE之间。在去年八月份,RCR Wireless根据信息图写道:“以前被称为‘NR-Light’(以及3GPP工作项中的变体)的RedCap,在5G NR功率等级中暂时位于大规模机器型通信(MTC)和增强移动宽带(eMBB)之间。”
“补充一下,它位于URLLC的下面两级,在3GPP的阶梯中,提供了物联网通信最重要的视角——实际上,它通常被表述为5G NR家族三角中的第三个点。然而,这三种规格类型只有两种是5G原生的。支撑大规模(机器型)物联网领域mMTC的两种低功率广域网(LPWA)技术是基于LTE的,不过与5G NR兼容。”
这篇文章继续写道: "而只有这些技术,超低功耗的NB-IoT和类似2G/3G的LTE-M,提供了对剥离的、廉价的、长寿命的、超大规模的物联网的支持。因此,就目前的情况和未来而言,蜂窝式物联网需要LTE来实现传统的物联网——它需要自己与非授权频段的LoRaWAN灯非蜂窝式标准斗争。但是RedCap承诺在未来的某个时候会解决这个问题——就像蜂窝网络一样。
“从表面上看,RedCap的设计是为了把这个熟悉的5G NR家族三角变成一个维恩图(见上图),它与其他三种操作场景重叠。”
爱立信在新闻公告中解释称:“RedCap(弥补了)现有5G环境低功耗广域网(LPWA)和超可靠低延迟通信(URLLC)用途之间的能力和复杂性的差距,为中层用例进行了优化设计。(它)可以有效地缩小设备平台的复杂性、尺寸和能力,为可穿戴设备和工业传感器等设备提供具有成本效益的集成。”
爱立信表示,它正在与“领先的芯片组供应商”合作,将“多种类型的5G设备推向市场”;它在其新闻声明中援引了联发科的说法:“联发科即将推出的、支持5G RedCap的解决方案肯定会受益于爱立信的基础设施准备工作,确保运营商、消费者和企业能够现在就从下一代创新的5G产品和服务中受益。”
爱立信产品区网络主管David Hammarwall表示:“爱立信RedCap将为那些不需要5G全部功能的新型设备开辟全新可能。RedCap软件将以一种既节约成本又节省能源的方式,为从消费者可穿戴设备到工业传感器的一切设备加强5G连接,从而开启一系列新的用例。”
Verizon也进行了表态。该公司负责技术规划的副总裁Bill Stone评论说:“5G从根本上被设计成一种高度可定制的服务。爱立信的NR RedCap的发展,加上在我们整个5G网络中部署的先进技术,将有助于为各种设备带来这种定制化,使我们能够有效地分配网络资源,同时在我们的网络上为客户提供最佳体验。”
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。