至顶网网络频道 04月23日 综合消息: 2019年4月17日,HAS2019,华为发布了以自动驾驶为目标的下一代网络构架。预计在10年之内电信运营商网络将迈入L5自动驾驶阶段,为运营商节省运维成本25%,华为SoftCOM AI解决方案总裁韩雨发先生说。
近几年来,网络走向自动驾驶逐步成为整个电信行业的共识,韩雨发先生说。两大驱动力推动网络发生变革,一是业务诉求,到2025年整个网络连接数将会达到750亿,网络会有多种接入技术并存满足联接诉求,固定网络接入和2G3G4G5G多域并存,网络复杂度是现在的10倍以上。二是运营商网络运维自动化程度不高,当前运营商网络很大程度上还依赖于人的经验和技能,与OTT相比,运营商运维10000台设备规模的网络需要384个人,而OTT仅仅需要3个人就够了。其结果就是运营商OPEX逐年递增(Growing OPEX):OPEX的占比也逐年上升,据统计已经是3~4倍的CAPEX。一方面是网络复杂度成指数型增长,另一方面网络运维成本居高不下,运营商已经不堪重负,网络呼唤变革。当前63%的电信组织已经开始投资AI自动驾驶,所有TOP大T均明确了自动驾驶发展战略。电信自动驾驶网络成为业界共识。
面向网络自动驾驶,华为发布了下一代网络运维构架,以统一云化平台为基础,面向5G网络规划、敏捷专线、预测维护、智能调优等场景,使用AI、Cloud、DigitalTwin等技术,实现分层(云端智能、网络智能、边缘智能)分域(无线、固定、核心网、数据中心)自治。自动驾驶网络的核心是面向业务的网络敏捷、自动化和智能化。和传统网络比较,面向网元的运维转为面向场景(规划、建设、维护优化、业务部署)的运维,网络业务实现分钟级的部署,网络运维实现基于策略的自动化闭环和故障自愈,能耗动态优化,按需使用资源。而其最终目标是实现资源利用率倍增、能源利用率倍增、维护效率倍增和最终用户提升。韩雨发先生说,当前我们还处在L2网络自动驾驶阶段,以人为主,机器辅助,未来10年网络华为自动驾驶构架将帮助运营商从局部自动驾驶(L3)、高度自动驾驶(L4)迈入L5级全面自动驾驶,实现效率提升70%,节省25%运维成本。
作为网络自动驾驶的使能技术,华为SoftCOM AI解决方案已经从概念已经走向现实。SoftCOM AI解决方案,核心有四个部件:云端训练平台,负责模型训练,将专家经验转化为模型;推理框架,将实时数据基于模型翻译为网络控制指令,并交由网管系统执行;MarketPlace负责管理训练出的模型,并将模型推送到网络;数据湖帮助运营商构建数据仓库。这套方案专门为电信系统设计,华为30年的网络经验嵌入其中;模型以云服务方式提供,在运营商网络中随处可得;一站式开发部署环境,运营商开发部署模型全流程可以获得指导,90%的工作已经预置完成。
这套方案在过去一年中和多个运营商合作,解决运营商的实际问题,韩雨发先生介绍说。案例一:运营商基站能耗大,忙闲时话务量比值有几十倍,而基站能耗忙闲时的比值只有几倍。晚上话务量低时,基站射频单元仍然功率全开,能耗浪费严重。某移动运营商采用华为SoftCOM AI方案,准确预测话务流量,同时评估网络KPI指标,在确保KPI指标不下降的情况下将空闲载波至于睡眠状态,全省部署之后一年节省2000万度电,节能10%。案例二:运营商网络中,单一故障会触发多个相连部件的故障告警,某省公司一天产生的告警有2000万张,经初步压缩之后还有200万张。告警会触发工单,运营商需要为海量工单买单。采用华为SoftCOM AI方案,让机器学习故障告警之间的关联,寻找故障根因,从而压缩工单。某市移动公司运行3个月之后工单进一步压缩率21.5%,预计每年可以节省费用200万。
韩雨发先生说,未来十年是网络智能化的时代,华为公司愿意和所有有志于此的合作伙伴一起,共同推进网络自动驾驶。
好文章,需要你的鼓励
这项来自苹果公司的研究揭示了视频大语言模型评测的两大关键问题:许多测试问题不看视频就能回答正确,且打乱视频帧顺序后模型表现几乎不变。研究提出VBenchComp框架,将视频问题分为四类:语言模型可回答型、语义型、时序型和其他类型,发现在主流评测中高达70%的问题实际上未测试真正的视频理解能力。通过重新评估现有模型,研究团队证明单一总分可能掩盖关键能力差距,并提出了更高效的评测方法,为未来视频AI评测提供了新方向。
这篇来自KAIST AI研究团队的论文提出了"差分信息分布"(DID)这一创新概念,为理解直接偏好优化(DPO)提供全新视角。研究证明,当偏好数据编码了从参考策略到目标策略所需的差分信息时,DPO中的对数比率奖励形式是唯一最优的。通过分析DID熵,研究解释了对数似然位移现象,并发现高熵DID有利于通用指令跟随,而低熵DID适合知识密集型问答。这一框架统一了对DPO目标、偏好数据结构和策略行为的理解,为语言模型对齐提供理论支持。
VidText是一个全新的视频文本理解基准,解决了现有评估体系的关键缺口。它涵盖多种现实场景和多语言内容,提出三层评估框架(视频级、片段级、实例级),并配对感知与推理任务。对18个先进多模态模型的测试显示,即使最佳表现的Gemini 1.5 Pro也仅达46.8%平均分,远低于人类水平。研究揭示输入分辨率、OCR能力等内在因素和辅助信息、思维链推理等外部因素对性能有显著影响,为未来视频文本理解研究提供了方向。
ZeroGUI是一项突破性研究,实现了零人工成本下的GUI代理自动化在线学习。由上海人工智能实验室和清华大学等机构联合开发,这一框架利用视觉-语言模型自动生成训练任务并提供奖励反馈,使AI助手能够自主学习操作各种图形界面。通过两阶段强化学习策略,ZeroGUI显著提升了代理性能,在OSWorld环境中使UI-TARS和Aguvis模型分别获得14%和63%的相对改进。该研究彻底消除了传统方法对昂贵人工标注的依赖,为GUI代理技术的大规模应用铺平了道路。