西班牙当地时间3月1日下午,在世界移动通信大会期间,沃达丰、德国电信、英国电信、西班牙电信、法国电信、瑞典运营商Telia等六大欧洲运营商,联合爱立信、华为、诺基亚、GSMAi共同发起和组织关于6GHz 5G/IMT频谱的讨论,并共同呼吁:随着WRC-23时间临近,希望产业界共同认识到6GHz对移动产业的重要性,共同推动6GHz作为IMT频谱使用,扩大5G及移动产业空间,促进全球数字化进程。
来自法国、突尼斯等国的频谱管制机构,以及来自欧洲的德国电信、法国电信等运营商代表,都提出6GHz是移动产业在数字化进程中的重要资源。
法国频谱管制机构ANFR频谱主管Eric Fournier表示:“在欧洲基本确认L6G(5925~6425MHz)分配给WiFi的情况下,U6G(6425~7125MHz)可以为5G及6G发展预留大带宽的中频频谱,是欧洲在数字化方面超越美国的一个重要机会。”他同时介绍,根据法国目前完成的共存分析来看,U6G IMT可以与卫星上行共存,如果U6G在全球标识IMT,法国可考虑在2030年搬迁微波业务。
ASMG的Tariq Al Awadi认为,他认可GSMA面向2025-2030年至少需要2GHz中频频谱的结论,ASMG将努力确保6GHz频段在中东的均衡分配,并会继续参与WRC-23中6GHz课题的研究。
来自突尼斯的频谱策略主管Ms Olfa Jammeli 表示: “为了保证频谱得到高效利用,突尼斯政府不会将U6Hz频段分配给WiFi。U6G是移动网络发展的重要资源,也是促进突尼斯的社会数字化进程的最佳选择。”
来自德电集团的Jan-Hendrik Jochum呼吁:“欧洲既想加速推进数字化进程,却又面临通信收入下降投资收紧的挑战。面向未来,6GHz是经济可行的部署5G的关键资源,也是当前唯一可能获取的中频资源。如果我们错失这段频谱,将直接削弱欧洲电信行业提供高质量5G网络的能力,这将使欧洲的数字化程度进一步落后于美国和中国。”
来自西班牙电信的Roberto Rodriguez表示:“6GHz频谱是建设高质量5G网络的关键,也是能获取大量(700 MHz)额外中频频谱的唯一机会,因此WRC-23 IMT 6 GHz标识非常重要。如果我们错失这个机会,从中期来看将使我们主要大城市的5G网络容量受限,长期来看将危及对于网络的可持续投资。我们殷切希望,政府确保U6G分配给移动产业,来确保2030年我们有足够的资源来建设一个数字化的社会。”
设备商代表诺基亚的发言人Ulrich Dropmann表示:“6GHz是5G及未来演进5G-Adavanced的关键资源,目前全球对于6GHz的频谱需求及共识已初步形成,WRC-23将是促进这一共识达成的关键路径。2022年,3GPP将完成U6G的标准化工作,我们也将继续联合产业界推进6GHz的产品和产业进程。”
在大会的讨论环节,沃达丰、爱立信、华为、联发科和肯尼亚、芬兰的政府机构,也表示,从未来移动流量的增长以及社会数字化进程来看,我们都需要为移动产业保留足够的中频资源,6GHz将是最佳选择。沃达丰首席科学家兼网络架构总监Santiago Tenorio表示, 5G是应对流量增长、解决城区加密部署的关键手段,也将在社会数字化方面发挥重要作用,因此我们必须对U6GHz频段的使用进行合理分配。
同时,GSMA分享了其发布的最新的报告《6GHz频段的社会经济价值》中的主要观点,最佳的频谱分配策略取决于每个市场当前的固定宽带水平以及对5G的移动宽带水平的预期。“通过对比分析我们发现,如果一个国家的固定宽带水平低于5Gbps, 应该将所有1200MHz作为授权频谱才能带来最大的经济效益。而对于国家宽带和光线部署较丰富的国家,应该至少考虑将U6G 700MHz作为授权频谱使用来保证移动宽带的水平,将所有6GHz作为非授权频谱使用在任何情况下都不是最佳选择。”
2021年5月,GSMA与爱立信、华为、诺基亚和中兴联合发布声明,呼吁政府至少将6425-7125 MHz作为5G授权频谱使用。GSMA 也在其2030愿景中指出,面向2025~2030年每个国家应该至少应保证2GHz的中频频谱资源,而6GHz是唯一具有GHz级带宽的中频。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。