慧与科技(NYSE: HPE)日前宣布,Gartner将HPE Aruba Networking评选为2024年《企业级有线和无线局域网基础设施魔力象限》报告领导者。这是HPE Aruba Networking连续第18次荣膺Gartner领导者象限殊荣。
在《企业级有线和无线局域网基础设施魔力象限》报告中,Gartner依据两项重要指标对供应商进行评估:愿景完整性和执行力。该报告中涵盖对各入选供应商优势和应注意事项的评估。
HPE Aruba Networking首席产品官兼首席技术官David Hughes表示, “正是由于HPE Aruba Networking致力于为客户打造的集中式平台,从而让我们获评此次领导者象限殊荣。这一平台旨在为客户提供更佳的网络可靠性和安全性,并借助将人工智能融入网络管理解决方案,以激发客户的创新动力,进而帮助提升网络团队和终端用户的体验。未来,我们将持续通过HPE Aruba Networking Central平台满足关键客户需求,该平台可通过本地部署或云端进行访问,具有全新的UI,支持零信任安全、网络即服务(NaaS)动态扩展,以及通过一系列收购带来的功能拓展,包括Axis Security的安全服务边缘(SSE)解决方案和Athonet的私有5G网络技术。”
HPE Aruba Networking营销副总裁Scott Calzia表示, “我们坚信,连续第18次荣膺Gartner领导者象限殊荣,印证了我们在构建有线和无线局域网基础设施方面的卓越专业实力,这些基础设施广泛应用于园区、分支机构和远程部署。同时,这一荣誉也再次凸显了我们在其他领域所提供的一系列解决方案的强大实力,涵盖数据中心、私有5G网络,以及整合了工作流自动化和边缘到云安全的物联网网络。”
HPE始终致力于推动网络领域创新,以满足关键客户的需求。去年,HPE通过收购私有蜂窝网络技术供应商Athonet,成功将私有5G网络引入企业无线领域,并作为集成式云管理解决方案的一部分。与此同时,HPE去年收购了云安全厂商Axis Security,从而为产品新增了基于云的网络接入控制、通用策略,以及基于EVPN/VxLAN的访问控制能力,进一步提升零信任安全性。此外,今年年初,HPE宣布有意收购Juniper Networks,以加码在网络业务和人工智能驱动型创新领域的投入。
我们深信,凭借在魔力象限中取得的领导者地位,HPE正处于前所未有的有利地位,进而推动网络市场持续转型。
附加资源
Gartner,《企业级有线和无线局域网基础设施魔力象限》,作者Tim Zimmerman,Mike Leibovitz, 以及Nauman Raja,2024年3月6日。
HPE Aruba Networking在《企业级有线和无线局域网基础设施魔力象限》报告中以HPE(Aruba)出现。
HPE Aruba Networking连续18年的傲人地位包括从2015年至2023年连续9年被评为有线和无线局域网基础设施魔力象限领导者。同时,HPE Aruba Networking从2012年至2014年连续3年被评为同一魔力象限领导者,并在2006年至2011年期间5年(2009年未发布报告)获评无线局域网基础设施魔力象限领导者。HPE Aruba Networking曾在2005年获评无线局域网基础设施魔力象限领导者和挑战者。
GARTNER是Gartner, Inc.和/或其附属公司在美国和国际的注册商标和服务商标,MAGIC QUADRANT是Gartner, Inc.和/或其附属公司的注册商标,本文已获得使用授权。保留所有权利。Gartner不为其研究出版物中提及的任何供应商、产品或服务背书,也不建议技术用户仅选择具有最高评级或其他称号的供应商。Gartner研究出版物包含的是Gartner研究组织的意见,不应被视为事实陈述。Gartner对本研究不承担任何明示或暗示担保,包括任何针对特定用途的适销性或适用性的担保。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。