至顶网网络频道 04月23日 综合消息: 2019年04月17日,在深圳举办的华为2019年分析师大会期间,华为正式发布自动驾驶电信网络SoftCOM通信智能白皮书。诠释自动驾驶电信网络的战略演进,架构创新和分级理念,展示电信网络AI方面的平台价值,场景探索和案例落地,为AI在自动驾驶电信网络中的应用指明了方向。
当前随着网络复杂度的激增,网络走向自动化已经成为产业共识。结合电信网络的发展历程,华为的网络架构在ALL IP阶段提出Single战略,云计算崛起后,2012年进入ALL Cloud阶段,提出SoftCOM(Software defined Network+TeleCOM)实现以数据中心为中心的网络。近年来随着人工智能技术的发展,提出全面智能化(ALL Intelligence),将人工智能引入电信网络,SoftCOM AI诞生,打造自动驾驶的电信网络。华为发布自动驾驶网络理念后,借鉴汽车自动驾驶的分级理念(L0-L5),从运营商的核心运营流程出发,通过分场景的阐述与分级定义,旨在凝聚业界共识,让每一步努力都与实现全自动驾驶的梦想有效结合,有效推进网络自动化的实现。
白皮书首次发布华为SoftCOM通信智能平台系列:数据湖,训练平台和推理框架,以及基于华为SoftCOM通信智能平台系列所能提供的电信网络AI服务。SoftCOM通信智能数据湖,提供主题和训练数据集服务。准确适配各种模型训练需求,结合领域专家经验知识和现网反馈,提供数据治理服务。SoftCOM通信智能训练平台,集成电信领域特征处理,辅助快速识别等关键特征,内置电信领域AI典型算法,如异常检测、根因分析、业务预测等,实现一站式高效模型训练服务。SoftCOM通信智能推理框架支持模型自动安装更新部署,灰度发布,跨网络数据采集传输,多模型的推理执行,定时调度和有效推理评估等,实现敏捷推理服务。
白皮书提出从基础设施层、网络设备层,业务承载层的三个层面引入AI的场景和节奏。AI在基础设施层的应用,主要为有源硬件设施提供AI加速器,实现不同层级的训练和推理能力。AI在网络设施层的应用,对网络和业务实现智能网络优化、运维、管控。实现网络KPI优化、路由优化、网络策略优化等。AI在业务承载层的应用,随着虚拟化网络部署,编排层上可逐步叠加AI能力,提升业务编排、端到端资源编排的自动化和智能化水平,实现业务质量优化。
与此同时,白皮书首次公布了华为在5G与AI相结合的探索与规划,华为将结合5G网络的规划,建设,优化和运维全生命周期,将AI渗透到端到端网络,实现智能5G。从5G建站智能化、5G切片智能化和5G DC智能化三个方面切入实践。5G建站基于多目标站点规划自动推荐站点位置和开站参数,自动开通大颗粒特性,参数自动优化。5G切片智能化基于中心云/边缘云构建的自动化能力持续增强网络切片,实现资源实时感知业务,按需调整,极简配置缩短业务上线时间。5G的DC智能化包括智能化扩容配置、跨层联动节能、智能巡检,硬盘故障预测维护,MEC智能运维等。
华为SoftCOM解决方案总裁韩雨发认为:“自动驾驶电信网络是业界的全新使命,需从架构和关键技术层面进行系统性思考和创新。SoftCOM通信智能解决方案通过架构性创新,在网络规划,建设,维护和优化端到端流程中全方位引入AI,使能全场景自动驾驶电信网络。”
“运营商网络的智能化不可能一蹴而就,是长期实践的过程。SoftCOM AI是华为All Intelligence战略在电信领域的落地,其中最核心的AI能力依托于华为在All Intelligence中长期坚决的战略投入而积累成长,和电信领域场景相结合,帮助运营商打造永不故障的自动驾驶网络,尽快实现数字化、智能化转型。” 韩雨发最后表示。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。