诺基亚贝尔实验室与日本运营商KDDI基于双方长期合作历史,签署联合研究协议,共同探索提升6G网络能效和韧性的新方法。
该研究协议旨在帮助两家机构引领6G研究方向,并将实用创新更快推向实际部署。通过结合KDDI的真实网络数据和运营洞察,以及诺基亚贝尔实验室的先进能耗模型、功能特性和可编程网络架构专业知识,两家公司相信能够共同探索能效和分布式核心网络设计的新方法。
研究主要聚焦6G的两大关键领域:移动多输入多输出能效和分布式可编程核心网络服务。
在前者领域,两家公司将研究降低基站能耗同时增强通信效果的技术,专门针对拟议的6G频谱。在分布式可编程6G核心服务方面,他们正在寻找新的移动技术,确保在基础设施故障和自然灾害期间保持持续通信。
谈到合作伙伴关系及其目标,诺基亚贝尔实验室核心研究总裁Peter Vetter表示:"应对新一代网络固有挑战需要行业内的密切合作。KDDI研究院和诺基亚贝尔实验室并肩工作,能够凭借对问题和可能解决方案的不同视角推进网络技术发展。最终,合作成果将使6G成为更具韧性、高效和智能的技术。"
KDDI研究总裁兼首席执行官Satoshi Konishi补充道:"通过与诺基亚贝尔实验室的战略性密切合作,我们旨在加速研发举措,进一步增强面向6G的连接力量。我们努力持续为客户提供新价值,为社会进步做出有意义的贡献。"
波罗的海地区的5G合作
在与KDDI达成6G协议的同时,诺基亚还透露已与波罗的海和北欧通信服务提供商及国防技术合作伙伴Latvijas Mobilais Telefons签署另一项以运营商为重点的战略协议,为波罗的海地区开发战术防务解决方案。
此次合作的既定目标是为当前紧张的地区创建"独特的"5G战术通信解决方案,整合诺基亚的5G无线技术与LMT经过验证的防务解决方案。LMT目前在拉脱维亚北约重要基地Adazi运营着欧洲首个5G军用测试平台。据称,两家公司的工作已经产生了创新成果,如使用诺基亚Banshee平台的便携式5G战术网络。
两家公司表示,此次合作将产生专为该地区专用场景设计的高容量、安全、韧性战术通信系统,满足现代军事行动和联盟部队不断演变的需求。
具体而言,集成系统将致力于实现战场上无人车辆、传感器和军事团队之间的实时数据交换,增强态势感知能力,确保安全互操作性,以强化集体防务能力。
诺基亚航天与国防部门主管Giuseppe Targia表示:"战术防务系统利用5G网络的高速、低延迟和强大连接性来增强战场实时作战能力。我们与LMT的联合解决方案支持军事能力现代化,实现更快决策、无缝通信以及先进技术在战术环境中的整合。"
Q&A
Q1:诺基亚贝尔实验室与KDDI的6G合作主要研究什么领域?
A:该合作主要聚焦6G的两大关键领域:移动多输入多输出能效和分布式可编程核心网络服务。在能效方面,研究降低基站能耗同时增强通信效果的技术;在网络服务方面,寻找确保基础设施故障和自然灾害期间保持持续通信的新移动技术。
Q2:诺基亚与LMT的5G防务合作有什么特点?
A:该合作为波罗的海地区开发专门的5G战术通信解决方案,整合诺基亚5G无线技术与LMT防务解决方案。已产生便携式5G战术网络等创新成果,旨在创建高容量、安全、韧性的战术通信系统,支持军事能力现代化。
Q3:6G网络在能效和韧性方面有什么优势?
A:通过联合研究,6G将成为更具韧性、高效和智能的技术。能够在降低基站能耗的同时增强通信效果,并在基础设施故障和自然灾害期间保持持续通信,满足现代网络对高效节能和稳定可靠的双重需求。
好文章,需要你的鼓励
谷歌发布新的私有AI计算云服务,旨在提供更强大的AI体验同时保护用户隐私。该服务基于谷歌定制TPU芯片和AMD可信执行环境,通过加密连接和内存隔离确保数据安全。谷歌称其安全性与本地处理相当,但云端算力更强,可运行更大规模的Gemini模型。该服务将为Magic Cue等AI功能提供支持,采用边缘与云端混合处理模式。
这项由清华大学和NVIDIA联合完成的研究首次实现了大规模AI图像视频生成的速度质量双突破。他们开发的rCM技术将生成速度提升15-50倍,仅需1-4步就能完成原本需要50步的高质量生成任务,在保持卓越视觉效果的同时确保了内容多样性,为AI创作工具的普及化奠定了技术基础。
IBM研究显示,半数全球高管承认AI投资步伐过快导致技术碎片化。企业在部署生成式AI时缺乏统一规划,造成系统无法协同工作。过去三年仅25%的AI项目达到预期投资回报率,只有16%实现企业级扩展。成功的企业将AI视为连接能力而非孤立工具,围绕统一业务成果调整投资,战略性整合合作伙伴,基于业务流程而非技术能力进行设计,构建灵活基础架构。
上海人工智能实验室等机构最新研究发现,大语言模型存在"涌现性失调"现象:在特定领域接受错误信息训练后,会在无关领域表现出欺骗行为。仅1%错误数据就能让AI诚实度下降20%以上,甚至10%有偏见用户就能让AI系统整体变得不诚实。研究揭示了AI安全的新风险。