从ONF(开放网络基金会)获悉,ONF已于本周正式启动全新的SD-RAN(软件定义无线接入网)项目,旨在为移动4G和5G RAN的部署建立开源软件平台和多供应商解决方案。该项目由行业领先的运营商、联盟技术公司和相关组织支持,创始成员包括AT&T、中国移动、中国联通、德国电信、Facebook、谷歌、英特尔、NTT、Radisys和 Sercomm。
迄今为止,ONF广泛参与了全球Tier 1运营商网络中开源平台的构建。ONF的云原生解决方案利用解耦和白盒化的方式,通过采用SDN、NFV和最新的云技术来构建灵活、高性能、高可用的解决方案,从而将智能和控制从专有供应商的特定设备中转移到云端。此外,ONF已经解决了多种运营商场景,包括:数据中心、固定接入、回传、光传输和移动核心网领域。
今天,通过创建SD-RAN项目,ONF无疑将把其独特的方法和理念所具备的种种优势带入到RAN领域,助其发展。据悉,SD-RAN项目初期将专注于构建开源准实时无线电智能控制器(nRT-RIC)。
SD-RAN项目的核心是开发一个名为μONOS-RIC(micro-ONOS-RIC)的开源准实时无线电智能控制器。μONOS是基于微服务的SDN控制器,它是通过对ONOS(面向全球Tier 1运营商网络的SDN控制器)进行重构和增强后创建的。而μONOS-RIC建立在μONOS之上,采用云原生设计,支持主动-主动集群,以实现可扩展性、高性能和高可用性,以及智能RAN控制所需的实时功能。
μONOS-RIC旨在控制兼容O-RAN联盟架构的多供应商Open RAN设备。具体来说,O-RAN联盟 E2接口被用于μONOS-RIC和供应商提供的RAN RU/DU/CU RAN组件之间的接口。
运行在μONOS-RIC之上的xApps负责传统意义上由供应商专有实现的功能。SD-RAN项目的一个主要目标是使外部智能控制器能够控制RAN,这样运营商就会对其RAN网络拥有可视性和控制能力,在运营商掌控频谱的使用和优化的方式后,可以为用户及应用提供最佳的体验。
SD-RAN项目的参与成员计划对一种先进的架构进行实施、创建原型和试验,使智能RIC xApps能够控制广泛的SON和RRM功能,这些功能过去一直作为供应商专有功能在定制基站设备和平台上实现。
截止目前,SD-RAN项目已经通过E2接口在RAN仿真平台上有了一个μONOS-RIC控制器的工作框架原型。这种实施展示了规模化的切换和负载平衡,支持了100多个基站和10万个用户设备切换延迟低于50毫秒(99%的切换延迟低于10毫秒)。
SD-RAN项目计划在2021年初进行现场试验,通过与RAN供应商合作,整合运营商级RU/DU/CU组件,同时并行实施xApps,以演示SON和RRM功能。
关于ONF
ONF是2011年由运营商主导成立的国际开放联盟组织,通过利用SDN、NFV和云化技术等方式围绕网络软硬件解耦、白盒设备、开源软件和软件定义标准来构建解决方案。如今,ONF已经成为运营商开源解决方案领域的领军者,推动着网络基础设施和运营商业务模式的转型。
了解更多ONF及其SD-RAN项目有关内容,敬请关注ONF官网www.opennetworking.org
好文章,需要你的鼓励
前谷歌资深工程师David Petrou创立的AI初创公司Continua宣布完成800万美元种子轮融资,由GV领投。该公司开发AI智能体技术,可加入SMS、iMessage和Discord等群聊平台,为用户协作提供智能支持。Continua能够在群聊中自动设置提醒、发起投票、添加日历邀请或生成待办清单,解决群聊混乱问题。公司通过微调技术让AI理解群聊动态,具备社交智能,只在需要时提供帮助。
艾伦人工智能研究院开发的MolmoAct是首个开源的机器人空间推理模型,通过"看懂-规划-执行"三步思考法让机器人具备类人的空间理解能力。它不仅在多项基准测试中表现优异,还支持直观的视觉轨迹调教,用户可直接在屏幕上画线指导机器人行为。研究团队完全开源了模型、代码和数据集,为全球机器人研究提供强大基础平台。
Anthropic宣布为企业客户增加Claude单次提示词的信息处理量,以吸引更多开发者使用其AI编程模型。Claude Sonnet 4现支持100万token上下文窗口,可处理75万词或7.5万行代码的请求,是此前限制的5倍,超过OpenAI GPT-5的40万token。该功能也将通过Amazon Bedrock和Google Cloud等云合作伙伴提供。更大的上下文窗口有助于AI模型更好地处理软件工程问题和长期自主编程任务。
这项由北京大学和清华大学联合完成的研究首次提出时间自奖励语言模型,通过"锚定拒绝"和"未来引导选择"策略解决了AI自学习中的梯度消失问题。该方法让AI既能从过去的低水平样本中学习反面教材,又能向未来的高水平样本学习正面目标,成功维持了清晰的学习对比信号,在多个基准测试中显著优于传统自奖励方法。