4月18日,由思科等14家领军企业共同发起的思科协作云联盟在北京正式宣布成立。思科协作云联盟将充分融合各方优势,有效整合多方资源,在产品、技术、营销和渠道等方面展开全面合作,旨在共同打造中国协作云技术服务的新生态,为中国本土客户提供更具价值的协作云技术解决方案。思科大中华区高级副总裁、合作伙伴事业部总经理倪殿令,思科大中华区副总裁、协作与运营商产品事业部总经理谢智然,城云视界(杭州)科技有限公司执行总裁徐剑炯,以及天津卓朗科技发展有限公司常务副总裁肖冀邯等共同出席了签约仪式。
思科协作云联盟首批发起方包括(按企业名称首字母排序):北京阳光金网科技发展有限公司、北京兆维博安科技有限公司、城云视界(杭州)科技有限公司、广州华港信息技术有限公司、广州科天视畅信息科技有限公司、上海华讯网络系统有限公司、上海领途网络科技有限公司、上海星视通云计算有限公司、上海英迈云计算技术有限公司、尚阳科技股份有限公司、深圳市华运通科技股份有限公司、思科(中国)有限公司、随锐科技股份有限公司以及天津卓朗科技发展有限公司。联盟将成立理事会并设立轮值制度,协调联盟各方的活动和沟通。
在今天,越来越多的企业与组织希望在全数字化转型中敏锐洞察市场前景,打造全新业务模式,加强与员工、客户和供应商的关系管理,提高生产和管理效率,这为企业协作云领域带来了前所未有的商业机遇与市场需求。思科致力于将自身技术优势与中国云产业转型相结合,打造面向未来的协作云平台,提供完整灵活的语音通信、视频通信、多媒体网络会议及联络中心等企业协作解决方案,从而为终端客户提供具有更高价值的服务。同时,思科与生态系统合作伙伴紧密协作,助力合作伙伴在思科的基础架构之上针对不同行业需求进行解决方案的定制化开发,共同为企业用户提供灵活、可扩展的端到端整体解决方案。此次思科携手合作伙伴共同发起倡议并成立思科协作云联盟,将进一步整合和优化思科协作云生态体系,促进共赢、平等、互联的思科协作合作伙伴生态的构建,鼓励技术创新并保护知识产权。
思科协作云联盟希望抓住市场导入期和培育期的绝佳时机,与广大思科合作伙伴实现更紧密的合作,共同开发协作云市场的行业应用,通过创新方案为不同行业的客户提供一流的产品服务和卓越的客户体验。具体而言,思科协作云联盟成员将在营销、产品与技术等方面展开深入合作。一方面,联盟成员将借助自身的营销渠道优势,共同推广协作云,并分享产品销售收益,在联盟发起方之间、思科体系内及思科体系外进行紧密的业务合作。另一方面,联盟成员将面向中国广大的政府及企事业单位,整合各方产品和技术优势,通过产品和技术对接等合作方式,推出基于协作云的应用与解决方案,并且不断拓展合作领域,形成全新发展优势,确保战略合作持续深入推进。
思科协作云联盟名誉主席、思科大中华区高级副总裁兼合作伙伴事业部总经理倪殿令表示:“企业协作云市场发展迅猛,为各个行业的客户带来了全新的发展机遇。思科作为全球科技领导厂商和思科协作云联盟的发起成员,将秉持‘优势互补、相互促进、长期合作、互利互赢’的原则持续推进战略合作,不断扩大各方合作的深度和广度,高效聚合生态力量,加速企业协作云辉煌时代的到来。”
思科协作云联盟理事长、城云视界(杭州)科技有限公司执行总裁徐剑炯表示:“思科协作云联盟致力于积极推动思科协作生态圈的建设,通过为合作伙伴重构全新体验式工作及沟通环境,以及建立能够迅速响应市场需求的销售模式,为广大合作伙伴和行业客户创造无限商机。未来,思科协作云联盟成员将协同创新,通力合作,共同搭建可持续发展的业务体系,携手建立全新协作生态圈。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。