至顶网网络频道 06月13日 编译:思科和谷歌本周一透露了有关计划中的混合云产品的更多细节,这款产品旨在帮助客户构建跨本地数据中心和公有云的应用。
去年,两家公司宣布推出了Cisco Hybrid Cloud Platform for Google Cloud,当时两家公司表示,该产品旨在让企业在混合计算环境中运行他们的应用,其中一些作业是在本地运行的,而另一些则是卸载到云中的。
思科公司首席执行官罗卓克本周一在奥兰多举行的Cisco Live大会的主题演讲中提及了该项目。思科承诺,该平台将让生产力提高10倍,并在今年晚些时候向客户提供。
Cisco Hybrid Cloud Platform for Google Cloud可通过Kubernetes和Istio在思科支撑的数据中心和Google Cloud Platform之间运行容器应用。Kubernetes用于管理云中的容器,而Istio则是用于连接、管理和保护构建容器应用的微服务。
在最初公布的时候,Wikibon高级分析师Stu Miniman曾表示,这两项关键技术将会发挥完全不同的作用。
Miniman说:“编排和网格服务非常适合在多云环境中进行网络协调。客户需要能够帮助他们跨越多种环境并保持数据管理和安全性一致性的合作伙伴。”
思科和谷歌的合作对双方来说都是有利的。谷歌多年来一直努力让企业认为谷歌云要比竞争对手如AWS和微软Azure更适合他们的需求。而在企业IT技术领域无处不在的思科,也可以为谷歌提供进入该市场的一个更好途径。
思科也能从双方的成功合作中受益,因为思科正在努力从一家依赖硬件销售的厂商转变为一家由软件和服务驱动的厂商。目前,思科一半以上的收入来自硬件销售,现在借助与谷歌竞争对手AWS和微软的合作关系使得思科的软件收入也在迅速增长。
Miniman补充说:“思科希望将自己定位为多云世界的一个关键组成部分。网络和安全性比以往任何时候的需求都要高,因此思科有充分理由向这个领域推进。”
罗卓克和Greene在大会主题演讲中表示,该产品将把思科基于Kubernetes的新Container Container(基于Kubernetes,今年早些时候推出)与超融合基础设施产品HyperFlex相结合,并与Google Cloud紧密集成。
“无论你是使用云端Kubernetes还是在本地使用思科Kubernetes,都可以获得相同的体验,”罗卓克谈到合作关系时这样表示。
与此同时,Greene提到了Kubernetes对于开发人员的价值,她说这让开发人员的工作效率更高,因为他们可以构建应用而不用担心基础设施。她还表示,IT环境将变得更易于管理,因为无论应用在哪里运行,都将统一起来。谷歌在更新的一篇博客文章中称,思科的工程师将为该平台提供支持。
思科和谷歌之间的合作伙伴关系,将会得到那些正在评估如何迁移应用到云端的数字化转型企业的重视,Constellation Research首席分析师兼副总裁Holger Mueller这样表示。他还解释说,思科和谷歌做的事情超越了“纯粹的Kubernetes”,这一点非常重要,因为这意味着他们可以为企业提供额外的价值。
“思科需要一个云出口,谷歌需要混合负载,所以这次合作并不令人意外。正在构建下一代应用的企业高管将关注这其中的价值,并评估这和他们自己在企业内部做的差别是什么。”Mueller讲到。
然而,思科和谷歌在说服企业采用这款新产品方面仍然面临挑战,因为他们在混合云领域面对着激烈的竞争。AWS与VMware有合作关系,微软Azure则提供了一个强大的混合云平台。其他竞争对手包括IBM和Oracle,也在推动他们自己的混合云战略。
好文章,需要你的鼓励
这项由华盛顿大学和新加坡国立大学研究团队提出的ScaleKV技术,针对视觉自回归模型中的内存瓶颈问题提供了创新解决方案。研究发现不同变压器层具有不同的缓存需求,将它们分为需要大量历史信息的"起草者"和专注于当前细节的"精细器",实现了尺度感知的KV缓存分配。实验表明,该方法能将Infinity-8B模型的内存需求从85GB减少到8.5GB,同时保持生成质量几乎不变,为高分辨率AI图像生成的普及应用铺平了道路。
这项研究提出了一种名为INTUITOR的创新方法,让大语言模型无需外部奖励即可自主学习推理能力。研究者利用模型自身的"自我确定性"作为唯一奖励信号,替代传统需要人工标注或答案验证的方法。实验表明,该方法在数学推理上与使用标准答案的方法相当,并在代码生成等跨领域任务上展现出更好的泛化能力。这为开发能在缺乏外部验证的情况下自我提升的AI系统开辟了新途径,对未来自主学习AI具有深远影响。
新加坡科技设计大学和字节跳动研究团队提出了"语音反向翻译"方法,解决语音识别中的数据稀缺问题。研究表明,仅用几十小时的标注语音数据就能训练TTS模型生成数万小时高质量合成语音,将数据扩充数百倍。他们引入归一化可理解度指标评估合成语音质量,确定了合成数据能有效增强ASR性能的质量阈值。将方法扩展到十种语言,生成了50万小时合成语音,对Whisper-large-v3模型进行预训练,平均降低错误率30%,对低资源语言尤其有效,错误率降低46%。
WINA是一种由微软等机构研究人员开发的训练无关稀疏激活框架,它通过同时考虑隐藏状态大小和权重矩阵的列式l2范数来加速大型语言模型推理。与仅基于隐藏状态选择神经元的现有方法不同,WINA能更精确识别影响模型输出的关键神经元,在理论上提供更紧的误差界限。实验证明,WINA在相同稀疏度下比最先进方法表现更优(提升最多2.94%),同时减少高达65%的计算量,为资源受限环境中部署大型语言模型提供了高效解决方案。