为了能够满足下一代网络的需求,管理系统必须具有可扩展性、动态性以及智能化。专家Lee Doyle表示,SDN监控工具可以实现这些要求。
对很多企业的IT组织来说,对端到端网络的管理的挑战在不断增长。分布式网络元素、IT孤岛,以及数据中心网络虚拟化,这些使得从应用程序到终端用户的流量跟踪和解决网络中断问题越来越难。
软件定义网络(SDN)技术可以扩展监控平台,确保它们能够处理如今的大规模复杂网络流量。管理系统必须能够动态适应IT环境中的各种变化,包括物理和虚拟基础设施中所有的应用程序更新或变化。SDN监控工具可以满足这些需求,同时还能捕捉并分析这些大数据流量,识别可操作的信息。对于网络中断问题,下一代网络管理平台就像是大海捞针,找出问题,然后为网络管理员提供一个明确的下一步解决方案。
云计算和SaaS阻碍了端到端的可视性
大型数据中心和基于云的应用程序的出现,使得IT应用环境更复杂,并增加了对网络操作中心的依赖性。数据流量的增加和流量平台的变化增加了识别和解决应用程序以及网络性能问题的复杂性。不断增长的移动性需求(比如BYOD)更是增加了确定性能、合规性以及安全性的难度。
基于软件即服务的应用程序的数量的增长,比如Office 365、Salesforce、Lync/Skype、WebEx、Box、Dropbox等等,使得IT管理者监控应用程序性能和管理网络更加复杂。
IT孤岛带来的挑战
IT孤岛往往会掩盖整个网络的可视性。一个典型的IT组织通常有一个“多厂商”网络,这对提供端到端的管理更是增加了难度。各个供应商可能在部分给定网络方面有特殊的优势:
• 数据中心网络:思科、Arista、Juniper和F5网络公司
• 存储区域网络:博科、思科以及Emulex
• 校园网:思科和惠普
• 无线局域网:思科、Aruba以及Ruckus
• 广域网(包括路由器、广域网优化以及SD-WAN元素):思科、Juniper、Riverbed等等
• 网络安全:思科、Check Point、Palo Alto、Fortinet、戴尔等等
其中每一个供应商都有一个特定的管理系统,能够报告其部分网络的状态和性能。但没有一个网络供应商能够很容易提供整个端到端网络的可视性。
IT运营团队也有很多工具可以提供对某个应用程序或者部分网络的性能监控。很多组织甚至有6到10种不同的监控工具。IT专业人员从很多厂商中挑出了一些产品组合,并验证了其可用性:
• 网络数据包代理商:Gigamon、VSS以及Big Switch公司
• 网络性能监控:Riverbed和NetScout
• 应用程序性能监控:New Relic和Riverbed
• 网络配置和变更管理:思科和IBM
• IT运营管理:惠普和IBM
其实,这些来自多个供应商的工具组合限制了IT人员的运营效率。用户很可能会收到大量警告,限制了可操作的信息。有些产品虽然有各种各样的接口,但是通常不能一起运行。因此,IT运营团队虽然有很多工具和原始信息,但是却不能快速识别并解决性能问题。
SDN监控可以满足网络可视性需求
IT管理者需要SDN监控工具来提高端到端网络的可视性,并很容易集成到DevOps IT环境中,打破应用程序、存储、计算以及网络之间的孤岛问题。具体而言,网络管理元素应该:
• 把流量和数据关联到特定设备
• 确定网络上的用户
• 实时监测网络拓扑结构和流量
• 确定性能下降点
• 了解并管理虚拟和物理网络元素
IT运营团队需要很容易识别、隔离并且修复应用下降和中断情况,同时还要能够解决安全性和合规性问题。SDN监控平台可以满足这些企业对网络可视性的需求。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。