[中国,上海,2022年2月21日] 今日,在“华为无线创新产品与解决方案发布会暨MWC2022预沟通会”上,华为无线网络产品线副总裁、首席营销官甘斌就“创新永恒,共建5Gigaverse社会”进行主题发言,发布了华为无线最新产品与解决方案——TDD第三代Massive MIMO产品和FDD超宽带多天线系列产品,为运营商提供最领先的5G网络能力,引领业界走向5Gigaverse和5Green的新纪元。甘斌表示:“5G大带宽和多天线的价值已经兑现,华为面向大带宽多天线的创新脚步不会停歇,第三代Massive MIMO产品和FDD超宽带多天线系列产品实现了网络性能和绿色节能双提升,助力运营商建设优质绿色的5G网络。”
华为甘斌在华为无线创新产品与解决方案发布会暨MWC2022预沟通会发言
截止目前,全球已有200多张5G网络正式商用,服务超过6.4亿的5G联接,消费者移动体验不断升级,视频观看更清晰、更流畅、更沉浸,移动场景流量在过去一年增长43.5%;行业数字化已形成规模效应,一万多个行业数字化创新项目实现了降本、增效、提质、安全。
网络建设是5G繁荣发展的基石。在运营商网络建设中,不同市场5G建网模式各有差异:TDD新频大带宽建设,需要提升覆盖做大容量的同时降低比特能耗;FDD存量频谱持续演进需要兼顾4G与5G实现共同受益。随着网络不断发展,TDD和FDD频段全网连续覆盖、相互协同,最终走向多频一张网,构建一张无处不在的千兆体验网络。
TDD大带宽配合Massive MIMO已是业界共识,华为本次重磅发布第三代Massive MIMO,包含第三代MetaAAU和第三代BladeAAU系列产品。相比第二代Massive MIMO的192天线阵子,第三代Massive MIMO采用384天线阵子,为业界唯一。
第三代MetaAAU,通过ELAA超大规模天线阵列配合AHR Turbo自适应高分辨波束赋形算法,实现了Massive MIMO性能和能效突破创新。该产品在商用测试中相比传统64T AAU覆盖提升3dB,用户体验提升30%;相比传统32T AAU,覆盖增益达6dB,用户体验提升60%;同时在覆盖指标不变的情况下,基站可配置更低的发射功率,相比传统AAU实现能耗降低约30%。针对共建共享场景,华为第三代MetaAAU会推出带宽400MHz、发射功率400W的超宽频产品,支持C-band 400M以内的所有离散频段,满足频谱离散和共建共享场景的极简部署需求。针对天面空间受限场景,华为进一步丰富BladeAAU产品组合,第三代BladeAAU全系列产品,单天面集成TDD 64T MMIMO、中频8T、低频4T,实现Sub-6GHz全频段极简部署,满足全球各类场景部署需求。
面向存量碎片化的FDD频谱,同样可以通过超宽带、多天线技术实现体验和能效双提升,满足未来网络演进需求。
华为推出业界最轻真宽频4T4R RRU产品,可同时支持700MHz~900MHz及1.8GHz~2.6G/1.4GHz多频网络的极简部署,通过全频段、全制式动态功率共享,实现体验提升30%,功耗降低30%;华为还推出了业界首款高功率超宽频8T8R,通过1.8GHz和2.1GHz双频合一,覆盖对齐Sub1G频段,4G网络容量可提升1.6倍,演进到5G后容量可提升3倍,结合高能效赫兹平台8T8R原生天线,进一步帮助客户降低15%的能耗,这也是业界唯一一款绿色天线;针对容量场景,华为推出业界唯一可规模商用FDD Massive MIMO,可以使4G网络容量相比4T提升3倍,当升级到5G后容量提升5倍,实现4G与5G双受益。
针对居民区和城市热点等场景,华为推出的TDD和FDD双频EasyMacro 3.0和BookRRU 3.0系列化极简方案,支撑运营商按需极简部署,实现5G快速补盲补热。针对室内极致体验需求,业界唯一的分布式M-MIMO,相比4T4R可带来4倍网络容量提升,超30%用户体验提升,打造5G室内泛在千兆体验,满足火车站、商场等室内场景需求。
创新致远,从第一代Massive MIMO起,华为持续创新实现了持续的跨代领先,通过在多天线、超宽带、智能和极简的技术方向上矢志不渝的探索,助力运营商5G网络持续领先。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。