爱立信透露,本月初它与澳大利亚运营商Telstra合作部署了最新的专用RAN计算平台,为在该国推出5G-Advanced铺平了道路。
Telstra 在基带池配置中部署了爱立信的RAN Processor 6672,该配置也称为集中式 RAN(C-RAN)设置,容量是爱立信之前迭代平台的三倍多。
爱立信表示,Telstra 是全球首家在C-RAN 中心的最新计算平台上运行商业流量的运营商,该中心覆盖了多个无线站点。
爱立信解释道:“在 C-RAN 配置中,新型RAN处理器的能耗比分布式部署低60%。”这种配置“还能实现更灵活的操作”,消除“单点故障”,并在与供应商的分组前传技术一起使用时提供“高效扩展”。
总之,爱立信称该平台为Telstra部署5G-Advanced“及相关技术”做好了准备。
该平台兼容先进的自动化、人工智能和机器学习功能。
爱立信指出,其最新的RAN处理器“可以支持20倍预载人工智能模型,具有更高的推理能力”,有利于“各种行业和各种应用。”
Telstra无线网络工程执行官Sri Amirthalingam表示,爱立信的平台“将解锁新的功能,并支持增加网络容量。”
这位高管预计,与移动数据使用相关的客户服务将出现增长,并称此次部署是“为6G奠定基础的重要一步”。
好文章,需要你的鼓励
这项来自新加坡国立大学等机构的研究引入了REASONMAP,一个用于评估多模态大语言模型细粒度视觉理解能力的基准测试。研究团队使用来自13个国家30个城市的高分辨率交通地图,构建了1,008个问答对,设计了两级评估框架测量答案的正确性和质量。对15个流行模型的评估揭示了一个意外发现:开源领域的基础模型表现优于推理型模型,而闭源模型则相反。研究还表明,当视觉输入被遮盖时,模型性能普遍下降,证明真正的细粒度视觉推理任务仍需要有效整合多模态信息。
Nvidia公布2026财年一季度业绩,营收441亿美元,同比增长69%;新AI超算与显卡产品陆续亮相,尽管出口管控对H20业务造成影响,但整体AI市场前景依然乐观。
Cerebras WSE 芯片拥有 40 亿晶体管,推理速度达到 NVIDIA 集群的约 2.5 倍,刷新了全球 AI 推理速度记录,为复杂 AI 代理应用提供高性能计算支持。
这项研究提出了"B-score",一种新指标用于检测大语言模型中的偏见。研究人员发现,当模型能看到自己之前对同一问题的回答时(多轮对话),它能够减少偏见并给出更平衡的答案。B-score计算单轮与多轮对话中答案概率的差异,无需外部标注即可识别有偏见的回答。实验证明,将B-score用于回答验证可显著提高准确率,在标准基准测试上平均提升2.9个百分点。这一发现不仅提供了实用工具,还表明大语言模型具有自我纠正能力。