在设备制造商为 Pixel 8 Pro 引入多输入多输出 (MIMO) 技术六个月后,谷歌现已与沃达丰展开合作。MIMO 技术可实现更快的上传速度,并通过上行载波聚合 (ULCA) 提升下载速度。
此次合作将为谷歌 Pixel 8 Pro 以及新款 Pixel 9、9 Pro、9 Pro XL 和 9 Fold 手机用户带来增强的上传性能,这得益于沃达丰英国 5G Ultra 网络新增的网络功能。
沃达丰解释说,客户使用连接的方式正在发生变化。特别是,用户生成内容的分享变得越来越重要,尤其是在各种活动中。在日常使用中,上传数据占网络总数据流量的 10-15%。
该运营商表示,近年来,由于用户生成内容的增长,尤其是在社交媒体平台上,消费者上传的数据量迅速扩大。随着智能手机应用变得更具沉浸感和交互性,以及人工智能 (AI) 等技术的引入,这一趋势将持续下去。
在此次新举措中,合作伙伴将与谷歌 Pixel 8 Pro 以及 Pixel 9、9 Pro、9 Pro XL 和 9 Fold 手机通信的天线数量增加了一倍,不仅提高了上传速度,还增强了连接的可靠性。这项技术使客户能够快速分享捕捉的 4K 内容,实现广播和电影质量视频内容的实时流媒体播放。
沃达丰还激活了 ULCA 作为上行 MIMO 的替代功能,以实现更快的上传速度,允许同时聚合四个频段。未来,这两项功能都将在其他设备上推出。
沃达丰英国首席网络官 Andrea Dona 对此评论道:"通过分析数据,我们可以清楚地看到客户行为随着我们生活的数字化程度提高而发生变化。在过去几年,数字高速公路是一条单行道,消费者下载的数据明显多于上传的数据,但现在开始趋于平衡。我们必须认识到这种客户趋势,并相应地调整我们的网络。"
谷歌欧洲、中东和非洲地区设备和服务合作副总裁 Michiel van Eldik 补充道:"我们希望我们的客户能够自由地以最高质量无缝分享他们的体验。这就是为什么我们很高兴与沃达丰在网络进步方面合作,使这成为现实。无论是现场直播音乐会还是与亲人分享 4K 视频,我们都致力于提供最佳的移动体验。"
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。