至顶网网络频道 06月13日 编译:思科和谷歌本周一透露了有关计划中的混合云产品的更多细节,这款产品旨在帮助客户构建跨本地数据中心和公有云的应用。
去年,两家公司宣布推出了Cisco Hybrid Cloud Platform for Google Cloud,当时两家公司表示,该产品旨在让企业在混合计算环境中运行他们的应用,其中一些作业是在本地运行的,而另一些则是卸载到云中的。
思科公司首席执行官罗卓克本周一在奥兰多举行的Cisco Live大会的主题演讲中提及了该项目。思科承诺,该平台将让生产力提高10倍,并在今年晚些时候向客户提供。
Cisco Hybrid Cloud Platform for Google Cloud可通过Kubernetes和Istio在思科支撑的数据中心和Google Cloud Platform之间运行容器应用。Kubernetes用于管理云中的容器,而Istio则是用于连接、管理和保护构建容器应用的微服务。
在最初公布的时候,Wikibon高级分析师Stu Miniman曾表示,这两项关键技术将会发挥完全不同的作用。
Miniman说:“编排和网格服务非常适合在多云环境中进行网络协调。客户需要能够帮助他们跨越多种环境并保持数据管理和安全性一致性的合作伙伴。”
思科和谷歌的合作对双方来说都是有利的。谷歌多年来一直努力让企业认为谷歌云要比竞争对手如AWS和微软Azure更适合他们的需求。而在企业IT技术领域无处不在的思科,也可以为谷歌提供进入该市场的一个更好途径。
思科也能从双方的成功合作中受益,因为思科正在努力从一家依赖硬件销售的厂商转变为一家由软件和服务驱动的厂商。目前,思科一半以上的收入来自硬件销售,现在借助与谷歌竞争对手AWS和微软的合作关系使得思科的软件收入也在迅速增长。
Miniman补充说:“思科希望将自己定位为多云世界的一个关键组成部分。网络和安全性比以往任何时候的需求都要高,因此思科有充分理由向这个领域推进。”
罗卓克和Greene在大会主题演讲中表示,该产品将把思科基于Kubernetes的新Container Container(基于Kubernetes,今年早些时候推出)与超融合基础设施产品HyperFlex相结合,并与Google Cloud紧密集成。
“无论你是使用云端Kubernetes还是在本地使用思科Kubernetes,都可以获得相同的体验,”罗卓克谈到合作关系时这样表示。
与此同时,Greene提到了Kubernetes对于开发人员的价值,她说这让开发人员的工作效率更高,因为他们可以构建应用而不用担心基础设施。她还表示,IT环境将变得更易于管理,因为无论应用在哪里运行,都将统一起来。谷歌在更新的一篇博客文章中称,思科的工程师将为该平台提供支持。
思科和谷歌之间的合作伙伴关系,将会得到那些正在评估如何迁移应用到云端的数字化转型企业的重视,Constellation Research首席分析师兼副总裁Holger Mueller这样表示。他还解释说,思科和谷歌做的事情超越了“纯粹的Kubernetes”,这一点非常重要,因为这意味着他们可以为企业提供额外的价值。
“思科需要一个云出口,谷歌需要混合负载,所以这次合作并不令人意外。正在构建下一代应用的企业高管将关注这其中的价值,并评估这和他们自己在企业内部做的差别是什么。”Mueller讲到。
然而,思科和谷歌在说服企业采用这款新产品方面仍然面临挑战,因为他们在混合云领域面对着激烈的竞争。AWS与VMware有合作关系,微软Azure则提供了一个强大的混合云平台。其他竞争对手包括IBM和Oracle,也在推动他们自己的混合云战略。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。