如今,大多数企业都制定了某种多云战略,但在连接到公有云和私有云的时候,仍然面临挑战。互联网提供了尽可能好的网络接入,但是网络质量的不一致,会大大影响应用性能。
通过传统的多协议标签交换(MPLS)连接到互联网,并不能提供类似云、让企业能够纵向向上或者向下的敏捷性。尽管私有云直接互连是最安全、也是性能最佳的连接方式,但需要预先规划容量,而这有可能导致利用率不高和成本上升等问题。
这就是为什么每个采用多云战略的企业组织都需要重新考量网络和连接策略的原因。与其将软件定义的广域网(SD-WAN)视为最后一英里的解决方案,企业组织还不如将SD-WAN与专用网络相结合来实现中间一英里的性能,从而从中受益匪浅。
因此,思科和Megaport提出了一种解决方案,通过自动无缝链接到SD-WAN和多云环境来避免以上所有这些复杂性。
近日,思科SD-WAN产品管理高级经理Vipul Shah和Megaport公司首席技术官Jim Brinksma就联合解决方案接受了采访,采访要点如下:
早在2020 年,思科与Megaport展开合作,大大缩短了将企业SD-WAN站点桥接到云所需的时间。随后两家厂商推出了Cisco Software Defined Cloud Interconnect (SDCI)和Megaport Virtual Edge (MVE)的集成功能,其中MVE是一种按需的、厂商中立的网络功能虚拟化(NFV)服务,可实现分支到云的连接。
Megaport提供网络站点和云之间的私有连接。MVE允许企业组织在Megaport的私有全球软件定义网络(SDN)上托管网络功能,该网络拥有700多个支持Megaport的数据中心以及200多个云入口,可连接到大多数主流云提供商,包括AWS、微软Azure、Google Cloud和Oracle等。
MVE采用了具有网络和计算能力的设备。在计算方面,企业组织可以获得SD-WAN控制器和其他网络功能的虚拟实例。在网络方面,Megaport的私有网络配备了中转网关,让企业组织可以将分支机构连接到云、分支机构连接到分支机构、分支机构连接到数据中心、数据中心连接到数据中心等等。
思科与Megaport的合作,通过一个无处不在的平台简化了整个网络的管理。大多数SD-WAN解决方案都专注于最后一英里,但思科解决了“中间一英里”的问题。企业组织可以使用Cisco SD-WAN vManage控制器,通过一个自动化工作流程部署Megaport底层连接。集成的Cisco SD-WAN Cloud Interconnect/Megaport MVE解决方案可保证服务水平协议(SLA),随时随地将用户和应用连接到任何网络。
Cisco SD-WAN Cloud Interconnect with Megaport的主要用途是连接多云工作负载,该解决方案简化了运行全球网络的运营工作。过去,连接到云提供商需要单独的点对点连接。管理每个云的策略和虚拟专用网络(VPN)通道是一项操作密集型工作,配置云就需要数周甚至是数月的时间。
现在,企业可以通过Cisco SD-WAN vManage控制器在10分钟或更短的时间内,创建接入他们多云环境的网络连接。网络管理员可以从全栈自动化中受益,同时满足低成本、低延迟方面的要求,从而显着降低网络的运营费用(OPEX)。他们可以管理策略并轻松地向上和向下扩展连接。
思科将继续通过Megaport投资SDCI。短期内,客户将看到更多的连接和扩展选项。对于那些连接到多云环境时需要端到端加密的用户来说,他们可以利用思科的云路由器将SD-WAN从Megaport MVE扩展到云中。思科计划在Megaport MVE中为云路由器提供更高的带宽,这对于那些需要规避风险的组织来说特别有利。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。