面对企业对网络容量和计算能力的空前需求,尤其是在云服务和人工智能 (AI) 应用方面的快速增长,所有网络运营商都面临着为企业提供服务的巨大挑战。
为应对这一挑战,Verizon Business 推出了一套集成解决方案和产品组合,旨在帮助企业大规模部署 AI 工作负载。
全新推出的 Verizon AI Connect 包含了专门设计的网络基础设施和产品套件,使全球企业能够大规模部署 AI 工作负载。该方案整合并重新构想了现有资源,包括电信设施中的电力、空间和冷却系统;Verizon 的 One Fiber 基础设施;长途、城域和本地光纤网络;以及支持网络切片等功能的 Verizon 5G 网络。
Verizon Business 指出,目前训练高级 AI 模型已经需要庞大的计算资源。根据 McKinsey 最新研究显示,预计到 2030 年,60-70% 的 AI 工作负载将转向实时推理,这就需要在边缘部署超越当前需求的低延迟连接计算和安全能力,为未来做好准备。
Verizon 补充说,支持 AI 工作负载的可扩展基础设施需求从未如此迫切,没有强大的网络支撑,这项工作将无法实现。该公司表示已经看到了这方面的市场需求,目前已有包括 Google Cloud 和 Meta 在内的主要云服务提供商签约,项目管道价值达 10 亿美元。
Verizon Business CEO Kyle Malady 表示:"我们看到市场对能够支持现有 AI 工作负载的可靠网络基础设施有着巨大需求。随着技术的发展,我们的行业领导地位、一流的边缘到云连接、可编程网络和资产将使我们能够满足这些需求并加速创新。"
在构建能够满足客户需求的生态系统方面,Verizon 强调了关键合作伙伴关系的重要性,其合作伙伴包括 NVIDIA、Vultr、Google Cloud 和 Meta。与全球 GPU 即服务 (GPUaaS) 和云计算提供商 Vultr 的合作是最新宣布的,而 Verizon 最近还宣布与 NVIDIA 合作,重新构想如何将基于 GPU 的边缘平台集成到 5G 专用网络中。
Verizon 已经与 Google Cloud 在网络维护和异常检测的高级 AI 解决方案方面展开合作,并与 Meta 在众多产品、技术和业务部门建立了战略合作伙伴关系。Verizon AI Connect 将扩大这种合作关系,进一步推动 AI 生态系统的建设。
Meta 网络基础设施副总裁 Gaya Nagarajan 表示:"在我们继续为应用和技术提供关键基础设施的同时,我们正在通过 AI 加强网络建设,并着眼于未来。这意味着要与 Verizon 合作构建和运营网络,不仅支持我们现有的服务,还要加速发展更智能和预测性的功能,以服务于使用我们产品的用户。"
Vultr 的 CEO J.J. Kardwell 补充道:"GPU 在支持 AI 工作负载方面发挥着关键作用,对实时推理日益增长的需求正在推动边缘 AI 基础设施的需求。在数据中心和 GPU 处理能力需求超过供应的情况下,Verizon 的连接基础设施独特地支持着我们的增长。通过 Verizon AI Connect,我们可以扩展我们的全球云业务版图,为 Verizon Business 的全球客户提供前沿的 AI 解决方案。"
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。