HPE首席执行官Antonio Neri表示,将通过140亿美金收购Juniper Networks利用新的现代AI驱动型网络结构来打破网络领域的“现状”。
Neri在一篇博客文章谈及此次收购带来的潜在竞争影响时表示:“我们正在推动此次收购,因为我们相信HPE和Juniper Networks的合并将从根本上改变网络行业,不是通过消除任一产品组合中的产品,而是通过在该领域创造更多选择。像这样的组合令人难以置信的是,双方都有强大的产品,通过将它们结合在一起,我们将为所有客户加速价值和灵活性。”
Neri没有直接点名竞争对手思科,后者自20世纪90年代中期以来一直在网络行业保持主导地位,但他表示,这笔交易的目标是当前的网络现状。
“我们的目标是通过整合网络行业中最具创新性和竞争力的两个组织来更好地应对客户挑战,打破现状。合并之后我们将打造一家新的全方位服务网络公司,采用以客户为中心的产品开发方法,提供全方位的产品组合为客户带来价值。”
就在Neri发布这封信的前一天,思科宣布与AI GPU巨头Nvidia建立合作伙伴关系,利用思科合作伙伴网络销售的“基于以太网的专用解决方案”,帮助企业“快速、轻松地部署和管理AI基础设施”。
Neri表示,与Juniper Networks的交易增强了HPE抓住AI带来“巨大”机遇的能力。
“对Juniper Networks的收购将加速我们抓住AI带来的巨大机遇,提供现代AI驱动的网络结构,用于训练和部署AI应用,同时将我们的HPE产品组合转向市场中增长更高、毛利率更高的领域。Juniper Networks对于我们为园区和分支机构提供的令人惊叹的HPE Aruba网络产品组合来说是一个补充,它为加速人工智能、数据中心、服务提供商和云领域的增长提供了机会。”
根据IDC的数据显示,2023年第二季度思科在以太网交换机市场中所占的收入份额为47.2%,HPE和Juniper Networks的份额分别为7.1%和2.9%。
与此同时,根据IDC的数据显示,2023年第二季度思科的服务提供商和企业路由器收入份额合计为35.9%,而Juniper Networks的路由收入份额为10.3%。
PKA Technologies是一家位于美国新泽西州蒙特维尔的解决方案提供商,该公司首席技术官Patrick Shelley表示,HPE对Juniper Networks的收购将引发与思科之间史诗般的网络大战。
Shelley表示:“这是Antonio说的,‘我们来了,思科’,我们很期待看到HPE如何整合产品组合,以最有利的方式利用Juniper Networks的AI能力。这是几十年来第一次有竞争对手能够凭借AI带来的机会在网络市场上向思科发起野心勃勃的挑战。”
Shelley表示,AI市场的转变对于HPE来说,是一场挑战思科的“完美风暴”。“随着AI改变了网络市场,曾经购买思科产品永远都不会错的日子已经过去了,如今客户更愿意关注最好的技术,而不是购买思科这样的知名品牌。HPE-Juniper也有很好的机会能够通过创新的AI网络解决方案来改变网络市场的游戏规则。”
虽然现在就未来HPE-Juniper产品路线图做出任何决定还为时过早,但Neri承诺,所有关于HPE产品组合的决策仍将是“谨慎的、经过深思熟虑的”。
此外他表示,“HPE目前销售的所有产品,包括通过HPE Aruba Networking Central提供的硬件、服务和解决方案,仍然是可供购买的,并且我们所有的标准报废政策仍然是有效的。”
他还承诺,HPE在完成这项重磅交易(计划于2024年底或2025年初完成)的同时,将把给客户和合作伙伴造成的“影响降至最低”。
Neri表示:“HPE在把新产品无缝集成到我们的产品组合方面拥有良好的记录,通过收购Juniper Networks,我们打算延续这个方式,确保我们的客户和合作伙伴获得不间断的服务,同时受益于扩展的产品组合。”
他表示,HPE在等待监管机构对该交易的批准期间,将保持与客户和合作伙伴的所有持续互动,包括合作伙伴顾问委员会会议和HPE Discover的HPE Aruba Atmosphere Edge计划。
他说,最终合并之后的HPE Juniper Networks将能够更快速地推动更多创新。“这对我们、我们的客户和合作伙伴以及整个行业来说都是一件好事。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。