ZDNET网络频道 05月08日 编译:思科公司周四透露将收购云API平台供应商Tropo的计划,继续大举地进行软件方面的收购。
Tropo是一家总部设在美国加州Menlo Park的私有企业。思科业务开发高级副总裁兼负责人Hilton Romanski上周四在一篇博客文章中表示,Tropo旗下的云API平台可以令思科服务提供商和开发商将实时通信“以最少的开发工作量”嵌入到自己的应用程序里。
Romanski表示,此项收购将为一众服务供应商带来新的收入,并为合作伙伴提供一款协作平台即服务产品,使得他们能够创建和销售新的通信服务。据称,目前有超过20万的开发人士在使用Tropo的API,收购完成后这些将成为高级副总裁兼总经理Rowan Trollope领导下的思科协作技术集团的一部分。
Romanski在博文里表示,“思科的使命是要使协作变得超级简单。下一代通信和协作平台需要易于使用的现代API,而且这种需要现在变得更为重要。”
而思科集中全力进行软件收购的这件事情也成为了上周在蒙特利尔举行的2015年思科合作伙伴峰会的一个热门话题。
思科全球合作伙伴组织高级副总裁Bruce Klein在峰会中的一次新闻发布会上表示,“各位将目睹思科越来越大胆地挺进软件领域,最近收购的10家公司中9家都是软件公司,而且每个业务单位都在创新更多的软件,推出更多的软件解决方案提供给市场。”
Tropo的收购预计将在思科的第四财季内完成,而收购财务条款未被披露。这也是思科刚刚于四月购买了以应用程序为中心的网络公司Embrane之后,紧接着着手开展的对Tropo的收购项目。
Long View Systems是一家位于加拿大艾伯塔省卡尔加里的思科金牌合作伙伴。该公司融合基础设施和网络服务副总裁Kent MacDonald表示,“我很高兴地看到思科认识到可以通过收购软件提升旗下的产品,认识到这样做比用硬件收购的方法使得整合容易得多。收购Tropo可拓展思科协作产品的特点和功能。我认为思科明白,要继续发挥领导作用就必须采取将创新和收购融合在一起的方法。”
Force3是美国马里兰州Crofton的一家解决方案提供商,是思科金牌合作伙伴。该公司的首席执行官Michael Greaney表示,思科最近大举进行软件收购合情合理,他还指出,网络巨头思科需要确保从收购中为其合作伙伴创造服务机会。
Greaney表示,“我们要确保……不仅能够提供思科在市场上的硬件和软件,还要提供服务,原因是我们的一些特别的东西出自服务这一块。在服务这一块我们能够打造个性产品。整个服务领域可以说为我们提供了一条自己的泳道,我们可以真正地显示自己与众不同,这一点对我们作为一个合作伙伴来说真是颇为重要。”
一众合作伙伴表示,此次收购在移动领域方面也有很强的份量。
许多合作伙伴一直在推动思科进行软件收购,以期能以更快的步伐加强思科软件产品组合。同样,思科也开始向合作伙伴施加压力,使得他们开始将软件打造纳入自己的商业模式。
Greaney表示,“对于思科来说,合作伙伴如何利用利用这些收购是个非常实际和需要考虑的事情。其中有些方面是要看看在将来的几年里哪些地方能够对业务产生最大的影响。我认为很多东西最终都是事关软件的事,而不是关于颠覆某个科学技术的事情。对此,思科不会无所事事。”
在上周的合作伙伴峰会上,思科推出了一个新的软件合作伙伴计划,以加大旗下的软件推广。软件合作伙伴计划旨在为那些投资软件的解决方案提供商提供回报和收益。该计划将于2016年启动。思科还公布了旗下新版的云计算和托管服务计划CMSP 2.0,新版赋予了思科互联云(Intercloud)一系列的新角色,并可以让合作伙伴在云架构上有更多的选择。CMSP 2.0细节将于2016年的第一季度公布。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。