北京 – 2023年6月20日 – HPE Aruba Networking日前召开Atmosphere 2023世界巡演·北京大会,本次大会以“敏捷的NaaS”为主题,吸引了多位技术专家及行业领军人士到场。Aruba中国区总裁谢建国、Aruba亚太区技术销售总监马克·维布鲁特、Aruba中国区技术销售总监俞世丹,以及来自IDC、AMD等合作伙伴的重磅嘉宾围绕Aruba最新的现代化网络技术和产品信息,行业解决方案,成功客户案例进行了精彩的解读和分享。
Aruba中国区总裁 谢建国
发布全新战略方向 锚定“敏捷的NaaS”
NaaS(网络即服务)成为网络未来发展的一大趋势,据IDC预测,到2026年,30%的中国中大型企业将采用NaaS(网络即服务),以实现运营敏捷性、服务定制和灵活的计费模式,来支持复杂的网络和多云环境。本次大会上,HPE Aruba Networking正式发布基于HPE GreenLake的“敏捷的NaaS”战略,将进一步简化核心网络的交付服务。Aruba推出全新的敏捷的NaaS(Agile NaaS)框架,提供网络即服务模型的灵活性,告别传统“一刀切”的网络管理方法,旨在为终端用户及合作伙伴提供更简单易用的按需消费网络服务。
为便于客户获取整套服务,全新的服务包(Service Pack)现已纳入HPE GreenLake for Aruba Networking,合作伙伴可将其为客户提供的设计和交付服务与月度NaaS技术订阅服务合为一体。
推出重量级产品 迈入AI赋能的网络管理时代
基于“敏捷的NaaS”战略,HPE Aruba Networking隆重推出下一代HPE Aruba Networking Central云网络管理平台,该平台进行了全新的优化设计,借助智能运维(AIOps)来减少需要人工参与的操作,能够在实现简化运维并大幅提升效率的同时,让网络团队节省出更多时间,用在更具战略性和高价值的工作中。全新设计的HPE Aruba Networking Central将为企业带来广泛的商业价值,包括工厂自动化运维、优化用户体验、降低碳排放,以及实现全渠道零售业务的线下、线上和移动无缝消费体验。
除了产品发布之外,HPE Aruba Networking同时宣布了两项收购业务以扩大现有的产品组合:一项是收购了提供私有5G网络技术的Athonet,另一项是收购Axis Security提供整合的SASE安全解决方案,两项收购后,HPE Aruba Networking边缘到云的产品实力将得到进一步增强。
本地化再进一步 喜获SD-WAN Ready 2.0认证
除了全新的战略和产品之外,HPE Aruba Networking在本地SD-WAN领域也取得了重要新突破。近期,Aruba中国参与了由中国信息通信研究院和中国通信标准化协会算网融合产业及标准推进委员会(CCSA TC621)联合发起的“SD-WAN Ready2.0”权威行业评测项目,凭借着一流的SASE、灵活、安全的边缘到云网络基础设施及全面的安全边缘产品组合,Aruba中国获得了SD-WAN Ready 2.0认证。
如今,云网融合、多云协同都离不开SD-WAN,SD-WAN借助多云接入和集成安全的力量,可以帮助企业提高性能、降低成本并保护关键资产,SASE是SD-WAN未来发展的方向,通过深度融合网络连接和网络安全,可有效应对数字化转型所带来的各种安全威胁。HPE Aruba Networking拥有世界领先的SD-WAN技术,连续 5 年获评 Gartner SD-WAN 魔力象限™ 领导者,面向日益增长的SD-WAN市场需求,HPE Aruba Networking不断打磨产品技术,帮助企业简化广域网架构并控制成本,最大化利用网络资源,此次获得认证代表着业界对Aruba专业技术实力的肯定。
Aruba中国区总裁谢建国表示,“数字化转型方兴未艾,网络在其中扮演着越来越重要的角色,企业开始关注能够支持业务敏捷创新,同时又安全可靠的现代化网络基础设施,Aruba始终走在网络世界的前端,紧跟未来数字化转型需求,推出最新NaaS网络即服务战略和创新网络技术产品。未来,Aruba会继续怀抱‘让连接无处不在’的愿景,在网络前沿不断探索,帮助企业打造更好的网络体验,为转型提供强大的驱动力。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。