智能技术和数字服务提供商 Connexin 在 2024 年初为赫尔市的中小企业(SMEs)推出了一项全方位商业宽带服务,现已将其全光纤基础设施战略性地出售给 CityFibre。
Connexin 成立于 2006 年,位于赫尔市。该公司于 2021 年 9 月宣布建设宽带网络,旨在通过为居民和企业提供选择光纤宽带提供商的自由,打破现有的垄断局面。
目前,公司在五个领域提供服务:家庭、商业、企业、公共部门和公用事业。公司还为公共部门和公用事业企业开发和运营智能基础设施,以增强连接性。公司在 2024 年底完成了英国"吉比特计划"下为超过 34,000 个农村家庭提供宽带的合同第一阶段。
这项战略性收购协议包括已建成和在建的光纤网络资产,目前已覆盖超过 80,000 个场所,并在建设通向另外 20,000 个场所的网络,未来还有进一步扩展至整个赫尔市的选择权。根据协议,Connexin 的股东 Patrizia 欧洲基础设施基金 II 将成为 CityFibre 的少数股东。
这笔交易包括"吉比特计划"合同,使 CityFibre 能够在赫尔和东骑士(East Riding)地区建立重要据点,将其网络覆盖范围扩大至多达 185,000 个场所。CityFibre 表示,此次收购凸显了公司积极参与市场整合的承诺,作为其全国性网络覆盖超过 800 万个场所的一部分。
此前,CityFibre 在 2024 年 5 月收购了 Lit Fibre,并在不到九个月的时间内完全整合,展示了公司整合和商业化收购网络以推动网络增长的能力。
CityFibre 还将接管 Connexin 的"吉比特计划"合同,向诺丁汉郡和西林肯郡难以触及的地区铺设千兆比特宽带。这将成为 CityFibre 获得的第 10 个"吉比特计划"交付合同,将"解锁未来扩展"至目标地区超过 50,000 个非补贴场所。
Connexin 现在将通过 CityFibre 的网络全国扩张,并在物联网(IoT)等现有业务基础上继续发展,包括推出英国最大的长距离广域网络(LoRaWAN)之一,并赢得超过 200 万个智能水表的合同。
在技术层面,CityFibre 将立即开始整合 Connexin 的 XGS-PON 网络,以在该网络覆盖范围内引入自身的批发产品、定价和服务。CityFibre 预计将在 2025 年底完成整合,进一步扩展其已覆盖超过 440 万个场所的全国性网络。
Connexin 首席执行官 Furqan Alamgir 就此收购发表评论说:"我们很高兴能与 CityFibre 合作,专注于我们的全国性增长战略。这种合作将为英国的消费者和企业带来我们双方最精华的专业知识。
"我们的下一个增长阶段极其令人兴奋,我们将加速聚焦于在英国扩展更智能的家庭、商业、企业、公共部门和公用事业产品及服务,使这些快速发展的市场能够通过采用更智能的技术来实现雄心勃勃的目标。"
CityFibre 首席执行官 Greg Mesch 表示:"Connexin 已经建立了一个出色的网络,这对 CityFibre 来说是一个极佳的契合点。我们成熟的批发模式现在将为赫尔市的家庭和企业带来更多选择,并获得无与伦比的连接产品、服务和价格。
"在我们迅速整合 Lit Fibre 的网络之后,我们已经证明这是扩大网络覆盖的有效方式,我们期待在 2025 年积极参与该行业加速整合的进程。"
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。