至顶网网络频道 02月28日 编译:VMware近期推出了其NSX网络虚拟化软件最重要的一次升级。这次升级实际上是将网络与虚拟机管理程序(运行虚拟机或在软件中模拟的虚机)进行了分离。
据悉,VMware的NSX-T Data Center 2.4和NSX Cloud目前运行在AWS、微软和IBM的基础设施即服务平台上,以及VMware自身的混合云和本地产品上。
通过这次发布,VMware将完全转向混合云和多云环境。据Gartner称,到明年混合云及多云环境将在3/4的大型企业中普及。这是VMware推动所谓“虚拟云网络”战略的一部分,在该战略下,NSX本身属于“从数据中心到云端再到边缘基础设施一个无处不在的软件层”的重要组成部分,这也是VMware与思科展开竞争的关键,而思科也有类似端到端的愿景。
此外,VMware公布了抢眼的客户采用数据。VMware表示,目前已经有10000个客户站点部署了NSX,其中包括82家财富100强企业和70%的全球财富500强企业。
除了运行在主流云之上,NSX网络虚拟化平台现在还嵌入到了整个VMware产品组合中,包括VMware Cloud Foundation、VMware Cloud on AWS、VMware Enterprise Pivotal Container Service和VMware vCloud Network Function Virtualization,其也将成为Amazon最近公布的云堆栈本地版AWS Outposts中的一部分。
以应用为中心
对于拥有大型网络(越来越多地涵盖了多个云)的企业组织而言,网络虚拟化被视为一种从基于设备管理为中心,转向以应用需求为中心的视角。
NSX高级产品营销经理Jonathan Morin表示:“我们过去常常谈论‘NSX无处不在’,这次发布扩展了这一概念,但将重点从无处不在转向了每个人。我们正在将应用作为业务的中心。”
VMware网络和安全高级副总裁Tom Gillis表示,“我们的目标是让配置和管理网络的任务与在公有云中的内部部署一样简单。在公有云中,开发人员单击按钮就可以启动工作负载,这种敏捷性是由软件驱动的。我们正在为数据中心带来同样的自动化水平。”
这次发布的新版本最重要的功能之一是简化了安装,VMware表示,软件定义网络的配置时间可以从几天缩短到几分钟。使用Ansible开源配置管理工具包构建的模块,可以实现安装工作流程的自动化。此外还增加了一个基于HTML5的新用户界面,以提供说明性指导,减少完成配置任务所需的点击次数和页面跳转次数。
VMware表示,将基础设施管理转移到代码中,可以消除配置开销并让开发人员使用策略定义来处理自己的部署,从而让企业能够更快速地开发应用。Gillis表示:“安装非常简单,你以前要安装许多组件,现在只有一个。”
软件定义网络还可以让企业组织在应用层面指定策略,而不必担心配置单个设备,从而增强安全性。在异构环境中可能就有5000个防火墙规则,手动编写所有规则几乎是不可能的。NSX对这些组件的内容有着内在的理解,可以在内部部署和云端模式下应用相关的策略。
另外,网络虚拟化也改善了资源利用率,其方式与服务器虚拟化将多个处理器视为一个处理器的方式相同。Gillis说到,“客户通过虚拟化可以将设备利用率提高30%到35%。”
新推出的NSX尚未包含用于管理软件定义WAN的原生功能,但去年VMware收购了VeloCloud Networks之后,将这些功能整合到了内部。这两个产品系列将同时独立存在,但Gillis表示,“我们要将SD-WAN与数据中心产品融合在策略层中。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。