中国北京,2023年11月3日 — 泰国最大移动运营商AIS通信与世界级数字领导者科威特运营商stc近日完成了亚洲首个5G SA漫游连接,为客户提供创新平台及服务,并实现中东地区数字化转型。这一成就是与国际领先通信平台服务提供商BICS合作的成果。BICS是同类公司中首家为科威特stc提供直连AIS SEPP(安全边缘保护代理)和全业务5G SA服务中心的公司。
这一成功连接使泰国AIS通信和科威特stc能够使用5G移动核心网,提供携带数据、文本和呼叫的国际5G漫游连接。此前,该地区5G连接使用5G NSA技术,并在核心网中以4G/LTE流量进行路由。这表示之前的连接不提供网络切片和实时关键通信或可扩展性,因此不支持5G创新用例。
这是BICS首个5G独立系列中的最新用例。在2021年,BICS就在实验室环境中完成了首次此类连接,并于去年在中东和欧洲之间迅速实现了首次全球5G SA漫游连接。 这一新用例助力BICS进一步扩展5G SA边界,测试其新型“5G SA服务中心”模型,并为运营商创新和扩大漫游协议打开了大门。
泰国AIS通信移动和消费部门主管Saran Phaloprakarn表示:“随着5G在亚洲的发展势头正劲,AIS将继续推动这项技术的发展,为该地区提供突破性的漫游连接。5G要为企业和消费者服务,就需要具有可扩展性和安全性。这项成功的漫游连接推动这两方面向前迈出了一大步,为我们的客户和整个行业带来下一代5G。”
stc解决方案首席执行官Mohammed N. Al-Nusif补充道:“我们很自豪能够见证这一突破性时刻,这是朝着为我们的用户建立全球5G连接的正确方向又迈出的一步。stc相信5G SA将带来的好处,我们很高兴通过与BICS合作,使我们能够走在最前沿,为我们的客户提供创新机会。”
这一最新的成功漫游连接见证BICS为客户提供了超标准要求的服务,在运营商建立的SEPP保护基础上还增加了一个安全层。所有流量通过BICS新型5G SA服务中心从运营商的SEPP发送。另外,运营商在拥有SEPP防火墙安全保护的基础上,可以通过BICS为全球运营商之间5G漫游流量交换增加的数据分析、商业智能、质量监控和强大的欺诈保护层服务,使他们可以轻松扩展。
BICS电信服务市场副总裁Mikael Schachne表示:“5G是几代以来最大的移动技术变革,为用户和企业带来了一系列好处。但5G的真正潜力只有通过全球采用5G SA技术才能实现。BICS相信通信的力量,这也是我们致力于为加速5G SA漫游在全球的推广奠定基础的原因。我们越是协同合作,巩固这些使5G SA漫游成为现实的基础,像泰国AIS通信和科威特stc这样运营商及企业和最终用户就越能更快释放其潜力。这一最新成就使全球5G SA更接近现实,不仅为运营商提供了技术准备,还为其提供了一系列安全、质量保证的服务,以保护消费者和运营商在5G时代的收益前景。”
关于BICS
BICS是国际领先通信服务平台提供商,位于整个通信生态系统核心,持续致力于桥接提供全球电信服务以满足企业需求。公司解决方案包括全球语音服务、无缝漫游和物联网连接服务以及全球短信服务等,能够全面满足当今消费者的大流量数据应用需求及数字化企业发展。
我们的愿景是为全球各地的用户、应用和设备提供快速安全连接服务。公司总部位于布鲁塞尔,业务遍及非洲、美洲、亚洲、欧洲及中东。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。