在MWC22 巴塞罗那期间,华为举办了首届绿色5G产业圆桌。华为无线网络SingleRAN产品线副总裁段浩在圆桌会议中发表“5Green——建设性能和节能双优网络”主题演讲,倡议通过产业共同定义能效标准、加速创新解决方案落地帮助运营商建设性能和节能双优的网络;同时推进5G与千行百业融合,助力行业数字化和低碳化,实现社会绿色低碳发展。
段浩在绿色5G产业圆桌发言
世界各国政府当前正处于应对气候变化等紧迫挑战的关键时刻,ICT行业积极响应气候行动并设定全行业2030年减碳45%,2040年实现净零排放的目标。面对流量的持续增长,运营商也正在网络绿色低碳发展的方向上积极进行探索和实践。
华为本次举办绿色5G产业圆桌会议,期望更好地支持运营商网络节能减碳,倡导产业共同思考和定义能效标准,引导网络向最佳性能和高能效演进;并加快5G使能行业数字化的脚步,使能数字技术为社会低碳发展做出积极贡献。
倡议一:产业共同定义多维能效评估体系,助力运营商建设性能和节能双优网络
随着气候行动的推进,ICT产业提出了从关注能耗到关注能效,这为通信产业指出了网络的绿色发展方向。在此基础上,华为希冀联合全球运营商、产业组织和标准组织共同定义多维能效标准——在流量的基础上,引入覆盖、体验等性能因素。5Green倡议产业联合充分研讨、共同定义多维能效评估体系,进而实践多维能效的产业价值,牵引网络向性能和节能双优发展、牵引产品能耗的持续降低、支持标杆网络建设。
倡议二:持续创新,加速绿色解决方案在商用网络的落地
到2030年,移动网络流量百倍增长,移动网络的能效也需要百倍提升。为实现这个目标,华为在满足多业务需求的基础上,在设备、站点和网络三大层面进行端到端节能创新;通过系列化独特的射频、天线设计,极简化的站点部署以及智能化的网络节能方案助力运营商达成网络性能和节能双优。
设备层面,MetaAAU通过超大规模阵列设计将天线阵列规模翻倍至384个,使能空间波束集中进而大幅提升天线增益,使得小区边缘覆盖指标不变的条件下,能耗相较传统AAU降低约30%;超宽频RRU则采用超高集成度设计,通过超带宽功放、硬件和算法融合创新融合多个单频设备,相同功耗下支持更多频段,显著提升能效;SDIF技术则通过消除内部布线降低天线损耗,进而有助于将射频模块输出功率降低10~15%。
站点层面,C-RAN架构下基带单元集中放置,去机房、去空调部署大幅降低站点能耗。
智能化网络方面,通过AI节能平台和专家经验,实现全天候、全域端到端节能,在精细KPI保障的同时实行节能特性与节能参数寻优,典型网络配置下可降低运营商网络能耗25%以上。
同时,5Green倡议通过产业协同加速绿色解决方案在运营商网络的落地,助力运营商网络能效持续提升。
倡议三:推进5G赋能千行百业,加速行业数字化和低碳化进程
GSMA报告指出,ICT对社会节能减排的贡献为1:10,这意味着移动通信每消耗1度电,就将降低10度的社会用电。5Green倡议,加速推进5G赋能千行百业,加快5G与传统高耗能行业的深度融合,为各行业提质增效、节能降耗做出贡献。
发言的最后,段浩指出:“华为自身将在节能减碳方向上持续进行探索和创新,为运营商网络、社会绿色低碳发展提供坚实基础;华为也在此呼吁产业联合,齐心推进网络向性能和节能双优发展,同时加速5G在各行业的发展和应用,使能低碳社会向前迈步。”
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。