负责支持和保护网络生活的云服务提供商阿卡迈技术公司(Akamai Technologies, Inc.,以下简称:Akamai)(NASDAQ:AKAM)宣布推出Akamai Inference Cloud,该平台通过将推理从核心数据中心扩展到互联网边缘,重新定义了应用 AI 的场景与方式。
Akamai Inference Cloud 能够在靠近用户和设备的边缘实现智能化的智能体 AI 推理。与传统系统不同,该平台是专为在全球范围内提供低延迟、实时边缘 AI 处理而打造的。此次推出的 Akamai Inference Cloud 依托 Akamai 在全球分布式架构方面的专业能力以及 NVIDIA Blackwell AI 基础架构,对释放 AI 真正潜力所需的加速计算进行了颠覆性的重构与扩展。
从个性化数字体验、智能体到实时决策系统,下一代的 AI 应用程序迫切要求将 AI 推理部署在更靠近用户的位置,从而在用户的交互点实现即时互动,并就请求的路由路径做出智能决策。智能体工作负载日益需要低延迟推理、本地环境感知以及即时进行全球扩展的能力。专为推动此变革而打造的 Akamai Inference Cloud 是一个分布式、生成式边缘平台,它可以将 NVIDIA AI技术栈部署在更靠近数据生成和决策制定的位置。
Akamai首席执行官兼联合创始人Tom Leighton博士表示:"下一波AI浪潮的发展同样需要靠近用户——这正是互联网能够扩展为今天广泛应用的全球平台的原因。Akamai过去曾成功解决过这一难题,如今我们再次应对这一课题。依托NVIDIA的AI基础设施,Akamai Inference Cloud将通过部署在全球数千个节点的AI决策能力,来满足日益增长的AI推理算力与性能扩展的需求,从而实现更快速、更智能以及更安全的响应。"
NVIDIA创始人兼首席执行官黄仁勋指出:"推理已成为AI中计算最密集的环节——需要在全球范围内进行实时推理。NVIDIA与Akamai共同协作正在将推理能力部署更靠近每一位用户,提供更快速、可扩展性更强的生成式AI服务,释放新一代智能应用的潜力。"
Akamai Inference Cloud 通过将智能化的智能体 AI 推理扩展到更靠近用户和设备的位置,重新定义了应用 AI 的场景和方式。该平台将 NVIDIA RTX PRO Server(配备 NVIDIA RTX PRO 6000 Blackwell 服务器版 GPU、NVIDIA BlueField-3 DPU 和NVIDIA AI Enterprise 软件)与 Akamai 的分布式云计算基础架构及在全球拥有超过 4,200 个位置的全球边缘网络相结合。Akamai Inference Cloud 将充分利用 NVIDIA 最新的技术(包括最近发布的 NVIDIA BlueField-4 DPU)来进一步加速和保护从核心到边缘的数据访问及 AI 推理工作负载,以推动 Akamai 实现其打造全球高度可扩展、分布式 AI 性能的愿景。
Akamai 与 NVIDIA 共同协作,通过 Akamai Inference Cloud,以前所未有的大胆举措将 AI 推理拓展至全新领域,共同开创 AI的新篇章:
Akamai Inference Cloud 现已推出,首批将覆盖全球 20 个地点,并且正在计划进一步扩大部署范围。
好文章,需要你的鼓励
香港科技大学团队发表重要研究,开发GIR-Bench测试基准评估统一多模态AI模型的推理与生成能力。研究发现即使最先进的AI模型在理解与生成之间也存在显著差距,无法有效将推理过程转化为准确的视觉生成,为AI行业发展提供重要警示。
随着AI技术不断发展,交通运输行业正迎来重大变革。MIT研究显示,AI将很快自动化价值650亿美元的交通工作,大幅提升运输效率。从陆地到海空,AI正在推动全方位的交通创新。斯坦福专家强调,AI将通过基础模型、合成数据和数字孪生等技术,实现从单一车辆自动化到整个交通网络优化的跨越式发展,同时解决可持续性、安全性和公平性等关键挑战。
Meta超级智能实验室联合麻省理工学院开发了SPG三明治策略梯度方法,专门解决扩散语言模型强化学习训练中的技术难题。该方法通过上下界策略为AI模型提供精确的奖惩反馈机制,在数学和逻辑推理任务上实现了显著性能提升,为AI写作助手的智能化发展提供了新的技术路径。