该产品是在爱立信旗下云原生基础设施上一个预集成的分组核心网软件版本,用了专门设计、占用空间较小的硬件。
该分组核心网能够支持包括5G独立组网 (SA)、4G和非独立组网(NSA)在内的各种应用部署。
爱立信分组核心网解决方案领域负责人Monica Zethzon表示,“我们通过这一解决方案提供了一种升级到云原生并引入5G核心网的新方法,这种方法建立在我们的全球最先进网络的深厚经验基础之上。这大大简化了现代化进程,同时可以释放我们的世界一流云原生软件的全部潜力。”
新的分组核心网系统旨在解决运营商面临的现代化挑战,例如升级流程日益复杂和效率低下等挑战。
爱立信表示,运营商能够将新的分组核心网以集中式或分布式的方法扩展到现有系统。爱立信将为迁移工作负载的运营商提供支持,并通过解决方案生命周期管理服务监督网络升级。
爱立信称,运营商使用该解决方案的预定义配置后,部署期间需要调整的参数减少了80%,可减少高达30%的能耗。
Zethzon 补充表示,“我们自豪地推出爱立信紧凑型分组核心网,希望可以为通信服务提供商加快云原生之旅和管理容量增长。”
数据分析和咨询公司GlobalData的首席分析师Glen Hunt表示,“爱立信紧凑型分组核心网是一个预集成解决方案,因此可以消除冗长的互操作性和集成测试带来的部署障碍,另外,爱立信紧凑型分组核心网占用的空间更小,而且具备内置配置,这意味着可以实现成本更低、复杂性更低且耗时更短的迁移。”
好文章,需要你的鼓励
这项来自新加坡国立大学等机构的研究引入了REASONMAP,一个用于评估多模态大语言模型细粒度视觉理解能力的基准测试。研究团队使用来自13个国家30个城市的高分辨率交通地图,构建了1,008个问答对,设计了两级评估框架测量答案的正确性和质量。对15个流行模型的评估揭示了一个意外发现:开源领域的基础模型表现优于推理型模型,而闭源模型则相反。研究还表明,当视觉输入被遮盖时,模型性能普遍下降,证明真正的细粒度视觉推理任务仍需要有效整合多模态信息。
Nvidia公布2026财年一季度业绩,营收441亿美元,同比增长69%;新AI超算与显卡产品陆续亮相,尽管出口管控对H20业务造成影响,但整体AI市场前景依然乐观。
Cerebras WSE 芯片拥有 40 亿晶体管,推理速度达到 NVIDIA 集群的约 2.5 倍,刷新了全球 AI 推理速度记录,为复杂 AI 代理应用提供高性能计算支持。
这项研究提出了"B-score",一种新指标用于检测大语言模型中的偏见。研究人员发现,当模型能看到自己之前对同一问题的回答时(多轮对话),它能够减少偏见并给出更平衡的答案。B-score计算单轮与多轮对话中答案概率的差异,无需外部标注即可识别有偏见的回答。实验证明,将B-score用于回答验证可显著提高准确率,在标准基准测试上平均提升2.9个百分点。这一发现不仅提供了实用工具,还表明大语言模型具有自我纠正能力。