如今,大多数企业都制定了某种多云战略,但在连接到公有云和私有云的时候,仍然面临挑战。互联网提供了尽可能好的网络接入,但是网络质量的不一致,会大大影响应用性能。
通过传统的多协议标签交换(MPLS)连接到互联网,并不能提供类似云、让企业能够纵向向上或者向下的敏捷性。尽管私有云直接互连是最安全、也是性能最佳的连接方式,但需要预先规划容量,而这有可能导致利用率不高和成本上升等问题。
这就是为什么每个采用多云战略的企业组织都需要重新考量网络和连接策略的原因。与其将软件定义的广域网(SD-WAN)视为最后一英里的解决方案,企业组织还不如将SD-WAN与专用网络相结合来实现中间一英里的性能,从而从中受益匪浅。
因此,思科和Megaport提出了一种解决方案,通过自动无缝链接到SD-WAN和多云环境来避免以上所有这些复杂性。
近日,思科SD-WAN产品管理高级经理Vipul Shah和Megaport公司首席技术官Jim Brinksma就联合解决方案接受了采访,采访要点如下:
早在2020 年,思科与Megaport展开合作,大大缩短了将企业SD-WAN站点桥接到云所需的时间。随后两家厂商推出了Cisco Software Defined Cloud Interconnect (SDCI)和Megaport Virtual Edge (MVE)的集成功能,其中MVE是一种按需的、厂商中立的网络功能虚拟化(NFV)服务,可实现分支到云的连接。
Megaport提供网络站点和云之间的私有连接。MVE允许企业组织在Megaport的私有全球软件定义网络(SDN)上托管网络功能,该网络拥有700多个支持Megaport的数据中心以及200多个云入口,可连接到大多数主流云提供商,包括AWS、微软Azure、Google Cloud和Oracle等。
MVE采用了具有网络和计算能力的设备。在计算方面,企业组织可以获得SD-WAN控制器和其他网络功能的虚拟实例。在网络方面,Megaport的私有网络配备了中转网关,让企业组织可以将分支机构连接到云、分支机构连接到分支机构、分支机构连接到数据中心、数据中心连接到数据中心等等。
思科与Megaport的合作,通过一个无处不在的平台简化了整个网络的管理。大多数SD-WAN解决方案都专注于最后一英里,但思科解决了“中间一英里”的问题。企业组织可以使用Cisco SD-WAN vManage控制器,通过一个自动化工作流程部署Megaport底层连接。集成的Cisco SD-WAN Cloud Interconnect/Megaport MVE解决方案可保证服务水平协议(SLA),随时随地将用户和应用连接到任何网络。
Cisco SD-WAN Cloud Interconnect with Megaport的主要用途是连接多云工作负载,该解决方案简化了运行全球网络的运营工作。过去,连接到云提供商需要单独的点对点连接。管理每个云的策略和虚拟专用网络(VPN)通道是一项操作密集型工作,配置云就需要数周甚至是数月的时间。
现在,企业可以通过Cisco SD-WAN vManage控制器在10分钟或更短的时间内,创建接入他们多云环境的网络连接。网络管理员可以从全栈自动化中受益,同时满足低成本、低延迟方面的要求,从而显着降低网络的运营费用(OPEX)。他们可以管理策略并轻松地向上和向下扩展连接。
思科将继续通过Megaport投资SDCI。短期内,客户将看到更多的连接和扩展选项。对于那些连接到多云环境时需要端到端加密的用户来说,他们可以利用思科的云路由器将SD-WAN从Megaport MVE扩展到云中。思科计划在Megaport MVE中为云路由器提供更高的带宽,这对于那些需要规避风险的组织来说特别有利。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。