在数字化转型的今天,企业对于网络现代化的需求持续增加。比如通过一个通用平台即可管理诸多投资组合;一个可以在问题发生之前就能预测和解决问题的安全网络;一种更具有弹性的部署模式,可以根据业务进行灵活调整。
基于此,Aruba在2019年推出Aruba ESP(边缘服务平台),其是业界首个AI驱动的云原生平台,专为实现边缘到云的连接、保护和自动化而设计。Aruba ESP基于AIOps、零信任网络安全以及从园区到分支机构的统一基础架构,不仅能够持续分析各网络域的数据、追踪SLA、识别异常并自我优化,自动预测并解决网络边缘的问题,而且还能够实现网络上未知设备的自动侦测并保护。
让网络现代化触手可及
网络基础设施是实现数字化的关键基石,也是应用落地的基础。当企业构建网络优化和弹性策略时,他们将获得更高的运维效率和安全性。
Aruba北中国区大客户技术总监刘宁告诉记者,自从2019年推出Aruba ESP平台后,主要围绕自动化、安全性和敏捷性三个方面,进行了诸多升级。
Aruba ESP平台最底层是有线、无线、SD-WAN硬件设备,实现统一的连接性;中间层基于零信任安全的保护层,实现对客户网络以及客户的安全防护;最上层提供可视化、智能化和自动化一系列的工具。
在无线方面,Aruba推出Wi-Fi 6E产品,可以为用户提供更宽的带宽、更高的速率。Aruba目前有三款Wi-Fi 6E的产品——从最低端的AP-615到635、655系列。
在交换机方面,Aruba CX系列涵盖了从接入、汇聚到核心的不同层级交换机产品,采用统一的云原生操作系统,其应用场景从园区扩展到分支机构和数据中心,为网络运维和管理人员提供了简单、端到端的交换平台,完美解决统一管理的难题。
在安全保护层面,随着企业向零信任和SASE架构过渡,他们越来越倾向于评估和部署多供应商的云交付安全服务,并且不要求所有SASE组件都来自一个供应商。Aruba的方案可以帮助用户在实现WAN边缘本地安全功能和自由选择领先的云交付安全服务之间实现平衡。
在分析和行动方案,Aruba一直围绕着可视化、自动化,帮助企业实现自动化IT运维。目前Aruba 在ESP平台的最上层,通过一系列的可视化和自动化运维的工具来帮助用户实现IT简化运维。具体来讲有三个编排器,第一是Aruba Central里面的可视化的工具NetConductor;还有SD-WAN的Aruba Orchestrator编排器,以及针对数据中心交换机部署的Aruba的Fabric Composer,简称AFC。
“2022年是Aruba快速升级转型的一年,我们推出了大量的产品,帮助客户进行网络现代化的转型和升级,所以带动了业绩的飞速增长。”刘宁说。
加强中国市场投入
Aruba是边缘网络的持续领导者,从WLAN到一体化有线无线网络,边缘到云,现在又提出“网络即服务”的模式。Aruba的产品方针、产品策略和市场策略的引导下,业绩每一年都有非常大的增长。
Aruba中国区总经理谢建国表示,Aruba ESP成功扎根中国市场,销售业绩快速增长。“在中国我们本着‘客户为先、客户至上’的理念,为客户提供了一体化的网络解决方案,安全方案,以及‘即服务’的模式。”
今年,Aruba加强了服务体系的建设,销售团队内部提供一个专门的团队为客户进行售后服务。另外,Aruba渠道能力不断增强,合作伙伴将Aruba的产品结合到自身方案中,加速行业市场的拓展。
谢建国表示,Aruba在中国的投入是逐年增长的,包括新产品的研发、XaaS业务模式、新市场培育、销售赋能、生产和供应。
例如Aruba最重要的市场是教育、互联网,制造业、零售业,为了增强伙伴拓展新市场的动力,Aruba会加大渠道的销售赋能。
明年针对中国市场的策列,Aruba将会遵循四字方针——攻、守、创、投。具体而言:攻是在重点行业和中小企业市场发现新的机会;守是全力保护现有重要客户、提高客户满意度;创是加速新产品和NaaS模式的市场导入;投是持续投资合作伙伴的培育和保护。
“2023年,Aruba解决方案能覆盖的市场容量达到千亿,用户对Aruba的产品和解决方案的需求非常大。我们希望新的一年能够汇聚更多的资源,创造更多的生机。”谢建国最后说。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。