正值帆船赛事即将在朴茨茅斯启航英国站比赛之际,全球帆船锦标赛SailGP宣布与BT集团和爱立信合作,将通过5G独立组网(5G SA)网络切片功能提供关键连接,以支撑赛事运营并提升观众体验。
该锦标赛共有10支队伍,驾驶相同的高科技、高速50英尺水翼双体帆船在全球12个场地进行正面对决,船只速度可达每小时100公里。总奖金达1200万美元。
在2025年系列赛中,作为官方全球技术合作伙伴的爱立信一直为各队和工作人员提供企业无线服务,以支持高质量的5G连接,改善观众体验和比赛运营。
为支持瞬间的人工决策响应,爱立信表示每支队伍都将在一些最具挑战性的物理条件下获得最快的连接。据称,这些服务能够提供即时的实时数据和统计反馈,即使在开放水域以每小时100公里的速度航行时也不例外。
此外,这些服务还将支持SailGP裁判通过5G增强的F50赛艇实时摄像头直播功能来裁决比赛规程,并获得有关队伍位置、战术和策略的洞察。
此次合作将看到爱立信与BT(朴茨茅斯赛事的官方技术供应商)合作,在SailGP英国赛事场地提供高性能的室内外连接。
每艘F50赛艇都配备了爱立信Cradlepoint边缘路由器,连接到私有5G网络,并通过BT公共5G SA网络上的专用网络切片获得额外容量。这些路由器每个比赛日处理超过530亿个数据点,实时传输物联网数据、视频流和关键通信。这种连接支持SailGP裁判通过实时摄像头直播来裁决比赛规程,并为12支国家队提供有关竞争对手位置、战术和策略的洞察。
爱立信私有5G网络跨越运营和赛事场地,包括距离赛事约30公里的技术中心,旨在提供安全、移动、低延迟的连接。正在由爱立信和BT测试的高频无线电提供多吉比特容量,用于为观众区的粉丝提供沉浸式增强现实360度视频体验,模拟登上F50双体帆船的刺激感。
BT将提供两个专门针对赛事特定需求定制的专用网络切片,增强连接并补充爱立信在为SailGP提供高容量网络性能方面的作用。据称,这是BT首次在英国同一赛事中提供多个并发网络切片。BT还与诺基亚合作,在朴茨茅斯港周围赛事区域的多个无线电桅杆站点部署网络切片功能,并进行端到端切片配置。
BT将配置这些切片,为关键用例提供专用容量,包括船只连接、销售终端和媒体,其中精选摄影师将能够实时上传照片。对于船只连接,5G网络将支持所有12艘F50赛艇在私有和公共网络之间漫游。
BT表示,其网络切片可确保语音通信、遥测数据传输和船载视频的始终在线连接。销售终端连接旨在在SailGP官方商品店实现快速支付流程。
对于广播,技术合作伙伴正在与索尼及其5G现场制作产品合作,试验新的广播功能。漫游全高清摄像头将利用为索尼编码器的高容量上行链路需求而优化的网络切片,支持向全球212个国家广播的SailGP制作。
英国赛事的新增项目是SailGP的360度增强和虚拟现实体验,让观众能够体验登上F50的感觉。这种体验将使用正在朴茨茅斯由BT和爱立信测试的更高容量5G无线电,旨在实现超低延迟性能和吉比特容量。
SailGP首席技术官沃伦·琼斯表示:"三年后将SailGP带回英国海岸是一个重要里程碑,提供世界级的技术驱动赛事对其成功至关重要。与BT的合作让我们能够突破体育连接的可能性边界。作为SailGP的首次尝试,BT使用5G独立组网网络切片确保全球锦标赛能够维持来自赛道的实时通信、遥测和实时视频——这种合作展示了尖端连接如何改变全球体育赛事的交付。"
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。