至顶网网络频道 02月28日 编译:VMware近期推出了其NSX网络虚拟化软件最重要的一次升级。这次升级实际上是将网络与虚拟机管理程序(运行虚拟机或在软件中模拟的虚机)进行了分离。
据悉,VMware的NSX-T Data Center 2.4和NSX Cloud目前运行在AWS、微软和IBM的基础设施即服务平台上,以及VMware自身的混合云和本地产品上。
通过这次发布,VMware将完全转向混合云和多云环境。据Gartner称,到明年混合云及多云环境将在3/4的大型企业中普及。这是VMware推动所谓“虚拟云网络”战略的一部分,在该战略下,NSX本身属于“从数据中心到云端再到边缘基础设施一个无处不在的软件层”的重要组成部分,这也是VMware与思科展开竞争的关键,而思科也有类似端到端的愿景。
此外,VMware公布了抢眼的客户采用数据。VMware表示,目前已经有10000个客户站点部署了NSX,其中包括82家财富100强企业和70%的全球财富500强企业。
除了运行在主流云之上,NSX网络虚拟化平台现在还嵌入到了整个VMware产品组合中,包括VMware Cloud Foundation、VMware Cloud on AWS、VMware Enterprise Pivotal Container Service和VMware vCloud Network Function Virtualization,其也将成为Amazon最近公布的云堆栈本地版AWS Outposts中的一部分。
以应用为中心
对于拥有大型网络(越来越多地涵盖了多个云)的企业组织而言,网络虚拟化被视为一种从基于设备管理为中心,转向以应用需求为中心的视角。
NSX高级产品营销经理Jonathan Morin表示:“我们过去常常谈论‘NSX无处不在’,这次发布扩展了这一概念,但将重点从无处不在转向了每个人。我们正在将应用作为业务的中心。”
VMware网络和安全高级副总裁Tom Gillis表示,“我们的目标是让配置和管理网络的任务与在公有云中的内部部署一样简单。在公有云中,开发人员单击按钮就可以启动工作负载,这种敏捷性是由软件驱动的。我们正在为数据中心带来同样的自动化水平。”
这次发布的新版本最重要的功能之一是简化了安装,VMware表示,软件定义网络的配置时间可以从几天缩短到几分钟。使用Ansible开源配置管理工具包构建的模块,可以实现安装工作流程的自动化。此外还增加了一个基于HTML5的新用户界面,以提供说明性指导,减少完成配置任务所需的点击次数和页面跳转次数。
VMware表示,将基础设施管理转移到代码中,可以消除配置开销并让开发人员使用策略定义来处理自己的部署,从而让企业能够更快速地开发应用。Gillis表示:“安装非常简单,你以前要安装许多组件,现在只有一个。”
软件定义网络还可以让企业组织在应用层面指定策略,而不必担心配置单个设备,从而增强安全性。在异构环境中可能就有5000个防火墙规则,手动编写所有规则几乎是不可能的。NSX对这些组件的内容有着内在的理解,可以在内部部署和云端模式下应用相关的策略。
另外,网络虚拟化也改善了资源利用率,其方式与服务器虚拟化将多个处理器视为一个处理器的方式相同。Gillis说到,“客户通过虚拟化可以将设备利用率提高30%到35%。”
新推出的NSX尚未包含用于管理软件定义WAN的原生功能,但去年VMware收购了VeloCloud Networks之后,将这些功能整合到了内部。这两个产品系列将同时独立存在,但Gillis表示,“我们要将SD-WAN与数据中心产品融合在策略层中。”
好文章,需要你的鼓励
谷歌推出升级版图像生成模型Nano Banana Pro,基于最新Gemini 3语言模型构建。新模型支持更高分辨率(2K/4K)、准确文本渲染、网络搜索功能,并提供专业级图像控制能力,包括摄像角度、场景光照、景深等。虽然质量更高但成本也相应增加,1080p图像费用为0.139美元。模型已集成到Gemini应用、NotebookLM等多个谷歌AI工具中,并通过API向开发者开放。
慕尼黑大学联合多所知名院校的研究团队发现,AI深度研究助手虽然能力强大,但存在严重安全漏洞。通过"计划注入"和"意图劫持"两种新攻击方法,这些AI助手可能绕过安全防护,生成比普通AI更详细、更危险的有害内容。研究测试了六款主流AI模型,发现在医学等敏感领域风险尤其突出。团队开发了新的安全评估框架并提出多层防护建议。
谷歌为Gemini应用和网页版发布SynthID检测器,允许用户上传图像判断是否由AI生成。但该功能局限性明显,仅能识别带有谷歌SynthID水印的Gemini生成图像。同时谷歌还发布了Nano Banana Pro图像生成引擎升级版,基于Gemini 3 Pro模型,专门优化文本生成清晰度,可创建包含可读内容的信息图表。
牛津大学研究团队发现了针对AI推理安全系统的四种"黑科技"攻击方法,能以超过90%的成功率让最先进的安全防护失效。这些方法利用AI对话模板的结构性缺陷,从简单的符号插入到复杂的推理劫持,门槛极低但威力巨大。研究揭示了当前AI安全架构的根本性问题,特别是在开源AI时代,这些漏洞的影响范围前所未有。