在企业数据中心市场风生水起的网络提供商——博科,一直没有放弃拓展运营商市场。如今正迎来了机遇,“5G”,它的发展得以让博科施展拳脚。
为了支持5G,移动运营商开始转型其网络,他们需要一个由软件和开放式生态系统而实现的,支持规模、自动化和服务的新IP基础架构。
这正是博科所擅长的,并在过去几年不断去构造的新技术能力。如今,博科在移动技术领域拥有的例如虚拟网络功能,SDN/NFV解决方案,可视性、控制和编排等,能够助力运营商快速适应技术及市场变化。
博科面向移动运营商的5G网络愿景
过去一年,软件总的来说已转变了数据中心和网络,运营商和企业则转向软件定义网络(SDN)和网络功能虚拟化(NFV)来快速开发新服务,并以用户为核心来提供服务。拥抱变化的运营商和服务提供商则将在2020年之前成为物联网(IoT)生态系统和5G竞赛中的赢家,而落后的风险将与日俱增。
所谓机遇,也正是博科的技术发展路径扣准了移动运营商的业务需求脉络。正如博科中国系统工程师总监张宇峰所说,博科的移动技术能够让移动运营商降低成本并缩短服务创新时间,并且是在开放的网络平台上开发创新服务,同时随时随地部署网络服务,以及提供个性化网络服务。
到底博科是如何做到的? 收购Connectem、Vistapointe后,博科不断完善其移动架构和愿景。近日,博科发布Virtual Core for Mobile(VCM)解决方案。VCM是第一个完全虚拟化的演进分组核心(vEPC)产品套件,它专为虚拟环境而设计,通过消除昂贵且专有的硬件设备,较长的升级周期、过度配置来改造移动网络。
博科VCM逻辑架构
vEPC也被张宇峰认为博科最有特色的面向移动运营商的网络服务,从而让运营商真正拥有操作网络资源的能力。
根据具体的网络和部署要求,同样的软件包可以充当一个完整的vEPC或移动性管理实体(MME)、家庭订户服务器(HSS)、服务网关(S-GW)和分组数据网络网关(P -GW)的集合。博科VCM的总体部署模式可用于创建专为物联网流量分析而优化的网络分层,实现移动分组核心即服务产品来托管MVNO服务,或支持移动通信新运营商所提供的非传统创新服务。
博科移动边缘解决方案
除了VCM,博科基于vRouter,还提供了移动边缘虚拟化基础设施功能,集成了包括路由、IPsec终端和网络防火墙功能和主机操作系统等在内的虚拟化基础设施。通过把云计算扩展到移动网络的边缘,使得移动网络运营商能够获得新的收入来源。
在网络可视性方面,对Vistapointe的收购,博科为运营商提供了一个更好地了解其网络和用户群的工具。张宇峰称,现在博科将可视性与分析发展到3.0。博科网络可视性产品组合能够满足当今EPC的需求,同时平稳过渡到支持软件的基础架构,并把移动运营商的可视性基础架构从封闭、单一转变为开放、分解的可视性架构。
为了帮助移动运营商快速进行网络转型,博科还扩大了移动生态系统,包括博科移动领域的新技术合作伙伴、移动领域(园区、可视性)的合作伙伴,及新增的新移动解决方案合作伙伴。
博科扩张移动生态系统
如此,通过联合合作伙伴加上博科的网络创新从而有机会引领行业的发展,帮助移动运营商进行网络转型,以支持未来的5G服务。
张宇峰介绍,在国外,不少移动网络运营商和移动虚拟网络运营商已经选择了博科的移动产品助力其网络转型。在国内,现在博科面向移动运营商的产品例如VCM、移动边缘虚拟化架构已经运行在博科与贵阳市政府合作的联合实验室里,他相信,随着国内运营商将网络逐渐迁移向开放及软件自动化管理,博科面向5G的开放网络很快被运行在业务网络中。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。