慧与的首席执行官Antonio Neri表示:“等到与Juniper的交易完成,我们将拥有另一项业务:110 亿美元的收入。它将占公司收入的三分之一以上,可能会占公司利润的50%。”
首席执行官Antonio Neri表示,由于斥资140亿美元收购Juniper Networks,以及新的Aruba networking 全球营销活动,网络正在成为慧与的核心,慧与正在努力从竞争对手思科那里获取更多的市场份额。
Neri今天在亚特兰大举行的2024 XChange Best of Breed 会议上表示:“我们正在成为一家以网络为核心的公司。思科可能已经忘了这一点。”“我认为这是个大机会,最终会在网络层面为客户提供更加现代化、由人工智能驱动的体验。”
Neri表示,慧与对Juniper的大手笔收购可能“几周后”就会完成,这将大大提高这家市值300亿美元的公司的销售额和利润。
慧与的首席执行官表示:“等到与Juniper的交易完成,我们将拥有另一项业务:110 亿美元的收入。它将占公司收入的三分之一以上,可能会占公司利润的50%。”
Antonio Neri:Juniper和慧与的产品之间“没有重叠”
Neri表示,慧与和Juniper的产品组合并不重叠,这对其在全球网络领域与思科争夺市场份额是个好兆头。
Neri表示:“Juniper获得了规模(以及)更大的销售队伍。显然,它还能服务于所有客户群。人们有时会有点困惑,(认为)会有重叠。实际上,并没有重叠。”
例如,他表示惠与在服务提供商领域“从未在网络层面做过任何事情”。
他表示:“我们在这个领域没有路由业务。显然,(与Juniper合作)对我们来说是一件好事。”
在某些网络市场或客户方面,惠与传统上并不热衷于校园和分支机构领域,而这正是Juniper的强项。
Neri表示:“你想想,在校园和分支机构领域,惠与凭借HPE-Aruba Networking建立了令人惊叹的业务,但真正的业务是在企业的高端领域,而且更多是针对思科。你看看Juniper Mist(AI),他们打造的解决方案非常出色,更多是人工智能驱动的。”
他表示:“所以,不要把惠与和Juniper对立起来看待。而是惠与和 Juniper一起,要与市场上思科的多种架构竞争。”
慧与擅长不安于现状
对于Juniper合作伙伴,Neri表示,渠道合作伙伴将能够销售“更大的产品组合,比以往想象的更大。”
他表示:“你想想到了2024年底或者2025年初,这起收购完成并融入业务,它将支持所有类型的客户——从电信和云服务提供商,到各种规模的企业,从园区和分支机构到数据中心交换,再到核心数据中心。”“显然,园区和分支机构解决方案还包括 Wi-Fi、软件、防火墙、网络和安全。”
Redapt是一家总部位于德克萨斯州奥斯汀的解决方案提供商,该公司的执行副总裁Paul Shaffer表示,收购Juniper是慧与在竞争中扩大市场份额的一项大胆举措。
Shaffer表示:“从网络的角度来看,收购Juniper非常好,因为我们也有相当强大的Juniper业务。如果他们能把Juniper业务整合到他们的数据中心基础设施业务中,那么效果会非常好。”
Shaffer表示,多年来,慧与在Neri的领导下进行了一些科技行业“最好的战略收购”。
Shaffer表示:“慧与擅长不安于现状。Neri 进行了一些伟大的收购,你在Aruba上就能看到这一点。他进行了一些非常棒的收购,在一些产品线或解决方案可能存在空白的地方增加了产品线。”
他表示:“在科技世界里,你不能停滞不前。”“你必须进行这类严肃的投资,将赌注押在上面。我为惠与和Juniper感到兴奋。”
Neri则表示,他看好惠与和Juniper合并后在市场竞争中的优势。
Neri表示:“这是惠普和惠与历史上第一次全面拥有知识产权——从芯片到基础设施到操作系统,再到软件服务和安全,以提供现代化的边缘到云网络结构。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。