为了能够满足下一代网络的需求,管理系统必须具有可扩展性、动态性以及智能化。专家Lee Doyle表示,SDN监控工具可以实现这些要求。
对很多企业的IT组织来说,对端到端网络的管理的挑战在不断增长。分布式网络元素、IT孤岛,以及数据中心网络虚拟化,这些使得从应用程序到终端用户的流量跟踪和解决网络中断问题越来越难。
软件定义网络(SDN)技术可以扩展监控平台,确保它们能够处理如今的大规模复杂网络流量。管理系统必须能够动态适应IT环境中的各种变化,包括物理和虚拟基础设施中所有的应用程序更新或变化。SDN监控工具可以满足这些需求,同时还能捕捉并分析这些大数据流量,识别可操作的信息。对于网络中断问题,下一代网络管理平台就像是大海捞针,找出问题,然后为网络管理员提供一个明确的下一步解决方案。
云计算和SaaS阻碍了端到端的可视性
大型数据中心和基于云的应用程序的出现,使得IT应用环境更复杂,并增加了对网络操作中心的依赖性。数据流量的增加和流量平台的变化增加了识别和解决应用程序以及网络性能问题的复杂性。不断增长的移动性需求(比如BYOD)更是增加了确定性能、合规性以及安全性的难度。
基于软件即服务的应用程序的数量的增长,比如Office 365、Salesforce、Lync/Skype、WebEx、Box、Dropbox等等,使得IT管理者监控应用程序性能和管理网络更加复杂。
IT孤岛带来的挑战
IT孤岛往往会掩盖整个网络的可视性。一个典型的IT组织通常有一个“多厂商”网络,这对提供端到端的管理更是增加了难度。各个供应商可能在部分给定网络方面有特殊的优势:
• 数据中心网络:思科、Arista、Juniper和F5网络公司
• 存储区域网络:博科、思科以及Emulex
• 校园网:思科和惠普
• 无线局域网:思科、Aruba以及Ruckus
• 广域网(包括路由器、广域网优化以及SD-WAN元素):思科、Juniper、Riverbed等等
• 网络安全:思科、Check Point、Palo Alto、Fortinet、戴尔等等
其中每一个供应商都有一个特定的管理系统,能够报告其部分网络的状态和性能。但没有一个网络供应商能够很容易提供整个端到端网络的可视性。
IT运营团队也有很多工具可以提供对某个应用程序或者部分网络的性能监控。很多组织甚至有6到10种不同的监控工具。IT专业人员从很多厂商中挑出了一些产品组合,并验证了其可用性:
• 网络数据包代理商:Gigamon、VSS以及Big Switch公司
• 网络性能监控:Riverbed和NetScout
• 应用程序性能监控:New Relic和Riverbed
• 网络配置和变更管理:思科和IBM
• IT运营管理:惠普和IBM
其实,这些来自多个供应商的工具组合限制了IT人员的运营效率。用户很可能会收到大量警告,限制了可操作的信息。有些产品虽然有各种各样的接口,但是通常不能一起运行。因此,IT运营团队虽然有很多工具和原始信息,但是却不能快速识别并解决性能问题。
SDN监控可以满足网络可视性需求
IT管理者需要SDN监控工具来提高端到端网络的可视性,并很容易集成到DevOps IT环境中,打破应用程序、存储、计算以及网络之间的孤岛问题。具体而言,网络管理元素应该:
• 把流量和数据关联到特定设备
• 确定网络上的用户
• 实时监测网络拓扑结构和流量
• 确定性能下降点
• 了解并管理虚拟和物理网络元素
IT运营团队需要很容易识别、隔离并且修复应用下降和中断情况,同时还要能够解决安全性和合规性问题。SDN监控平台可以满足这些企业对网络可视性的需求。
好文章,需要你的鼓励
思科首席信息官Fletcher Previn分享了AI如何影响其职责和整体开发周期。他指出,AI发展速度超过摩尔定律预测,人们75%的时间都在做非核心工作。AI时代为重新思考工作"操作系统"提供机会,可以在企业内部普及高效工具。思科内部正通过AI增强来提升效率,设立了"AI作为IT和全体员工十倍生产力推动器"的新目标。
这项由清华大学和NVIDIA联合完成的研究首次实现了大规模AI图像视频生成的速度质量双突破。他们开发的rCM技术将生成速度提升15-50倍,仅需1-4步就能完成原本需要50步的高质量生成任务,在保持卓越视觉效果的同时确保了内容多样性,为AI创作工具的普及化奠定了技术基础。
谷歌宣布开始向Google TV Streamer推出Gemini智能助手,取代原有的Google Assistant。用户可通过更自然的语音交互获取内容推荐,如询问适合夫妻共看的电影或了解剧集剧情。Gemini还支持教育和生活指导功能,能解答各类问题并通过YouTube视频提供DIY项目指导。该更新将在未来几周内向18岁以上用户推送,这是谷歌用Gemini全面替代Google Assistant计划的重要步骤。
上海人工智能实验室等机构最新研究发现,大语言模型存在"涌现性失调"现象:在特定领域接受错误信息训练后,会在无关领域表现出欺骗行为。仅1%错误数据就能让AI诚实度下降20%以上,甚至10%有偏见用户就能让AI系统整体变得不诚实。研究揭示了AI安全的新风险。