Hewlett Packard Enterprise(NYSE: HPE)旗下公司Aruba日前宣布,HPE(Aruba和Silver Peak)再次被评为2021年度Gartner 广域网边缘基础设施魔力象限领导者。这是HPE(Aruba和Silver Peak)连续第四年进入全球最具权威的IT研究与顾问咨询公司Gartner发布的魔力象限报告的领导者行列。
自该报告出版四年以来,Aruba是仅有的两家连续四年被评为领导者的厂商之一,这进一步证实了Aruba收购Silve Peak的合理性。Gartner认为,正是由于对Silver Peak的收购,基于客户咨询和在线会话分析,HPE(Aruba和Silver Peak)展现了很高的市场可见度。

Gartner发布的魔力象限(MQ)报告通过对厂商进行可视化简介、深入分析和给出可操作建议来提供关于一个市场的发展方向、成熟度和参与者的洞见。在广域网边缘基础设施魔力象限报告中,Gartner以“愿景完整性”和“执行力”为主要标准评估了15家厂商。该报告不仅包括了对各个厂商的简介,而且对厂商的行业优势和客户们应注意的事项都进行了评估。
Gartner表示:“广域网边缘基础设施市场持续从用于连接分支机构和数据中心的传统分支路由器(在多协议标签交换实现中通常称为‘客户边缘路由器’)向支持更加分散的架构和云工作负载的软件定义广域网(SD-WAN)迁移。软件定义广域网(SD-WAN)正广泛取代边缘路由器,并新增了在多个链路中具有应用感知能力的路径选择、集中编排和本地安全功能,以及其他的性能优化功能(例如WAN优化)”。
此外,Gartner在今年的报告中还更新了几项战略规划假设,其中包括:“ 到2024年,超过70%的软件定义广域网(SD-WAN)客户将实现安全接入服务边缘(SASE)架构,而2021年这一比例为40%。”
Aruba作为有线和无线网络领域的领导企业,也在积极布局SASE,今年4月,Aruba ESP推出一系列跨产品的、从边缘到云安全功能的集成及多项创新改进,包括ClearPass Policy Manager安全网络访问控制平台与Aruba EdgeConnect SD-WAN边缘平台集成,以及 Aruba 威胁防御与 EdgeConnect 平台集成,并拓展了Aruba ESP的多供应商安全合作伙伴生态系统,进而允许企业客户自由部署其选择的同类最佳的云交付安全接入服务边缘 (SASE) 安全组件。
Aruba通过SASE,将零信任安全和SD-WAN结合起来。SASE融合了网络技术和网络安全技术,并通过云进行交付,从而简化了架构并使其迅速扩展,企业客户能够从边缘到云应用基于身份的细颗粒度安全策略,以便安全地连接并保护用户和设备。
Aruba首席产品和技术官David Hughes表示:“无论企业处在数字化转型过程中的哪个阶段,只要借助Aruba的软件定义广域网(SD-WAN)产品组合,所有行业不同规模的企业都能满足多种用例的要求。连续四年被评为领导者进一步证实了我们边缘到云的理念不仅切实可行,而且能支持企业在瞬息万变的商业环境中获得竞争优势。”
Aruba中国区总裁谢建国也表示:“Aruba专注于网络解决方案创新,希望成为行业用户数字化转型的合作伙伴,凭借对客户需求的深入探索和对产品创新的不懈追求,我们得到行业的认可和客户的信任。未来,Aruba会持续关注网络技术发展的前沿趋势,不断完善各种解决方案,帮助客户更从容地应对数字化转型时代的挑战。”
点击下方免费阅读Gartner WAN边缘基础设施魔力象限报告
好文章,需要你的鼓励
Anthropic周一发布了旗舰模型Opus 4.5,这是4.5系列的最后一个模型。新版本在编程、工具使用和问题解决等基准测试中表现出色,是首个在SWE-Bench验证测试中得分超过80%的模型。同时推出Claude for Chrome和Claude for Excel产品,分别面向不同用户群体。Opus 4.5还改进了长文本处理的内存管理,支持付费用户的"无限聊天"功能,并针对智能体应用场景进行了优化,将与OpenAI的GPT 5.1和谷歌的Gemini 3展开竞争。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
总部位于圣地亚哥的AI公司耐能发布新一代KL1140芯片,这是首款能在边缘端运行完整变换器网络的神经处理单元。该芯片可将大语言模型从云数据中心转移到便携式本地设备中,四颗芯片组合可实现类似GPU的性能,支持1200亿参数模型运行,功耗降低三分之一至一半,硬件成本减少十倍。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。