5G的出现,势必会带来对更高移动网络连接速度和更大数据容量的需求。为了应对这一提升性能的需求,就需要新的基站技术。
基站是所有移动网络必须克服的一个瓶颈。也正是这个瓶颈,将目前的4G网络限制在50Mbps的平均峰值数据速度内,并阻碍它实现真正的实时传输。
相反,5G或许能实现实时无线通信,并实现10Gbps的最大数据速率。
德国弗莱堡的弗劳恩霍夫应用固体物理研究所(Fraunhofer Institute for Applied Solid State Physics)声称拥有“扩大这一瓶颈的技巧”。
弗劳恩霍夫应用固体物理研究所研究人员目前正在开发新型功率放大器,能比当前4G技术以更快的速度发送更大量的数据。
这些新型功率放大器能利用高达6GHz的额外无线频率;相比之下,LTE则限定在2.7GHz。
但是,尽管这些高频率能实现更快的数据传输,同时却也更难有效地提供更高功率。
因此,劳恩霍夫IAF的科学家们开始利用氮化镓(GaN)构建更适合于更高5G频率的射频电源发送器。
劳恩霍夫IAF的Rüdiger Quay博士解释道:“由于氮化镓特殊的晶体结构,同样的电压可以在更高的频率中实现,从而带来更高的功率和更好的效率性能。”
加上能为用户提供高精确度数据服务的新型电子转向天线,5G网络能处理比当前高达200倍的数据传输量,而无需大幅度增加功率消耗。
好文章,需要你的鼓励
是德科技高级副总裁兼通信解决方案事业部总裁Kailash Narayanan现场指出,算力固然重要,但如果能耗过高,技术的实用性将大打折扣,因此,所有的高速、高性能计算,都必须在极低的功耗下实现,这是AI等技术能否大规模落地的核心前提。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
来自上海交通大学和浙江大学等机构的研究团队开发出首个AI"记忆操作系统"MemOS,解决了AI系统无法实现人类般持久记忆和学习的根本限制。该系统将记忆视为核心计算资源进行调度、共享和演化,在时间推理任务中相比OpenAI记忆系统性能提升159%。MemOS采用三层架构设计,通过标准化记忆单元实现跨平台记忆迁移,有望改变企业AI部署模式。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。