华为近日在生态伙伴大会上宣扬的生态之道为业界所称赞,当然它并不是随便喊喊的一句口号,而是真真切切把它落到实处。华为OpenLab就是践行生态之道的使能工具,作为“华为+合作伙伴”方案联合孵化、联合验证,增强产品竞争力、提升客户价值和满意度的平台,OpenLab正在助力生态系统的建设和完善。
毫无疑问,华为给自己的定位是ICT基础设施的供应商,但面对众多行业的个性化需求时该如何满足?华为企业BG中国区副总裁(解决方案销售和Marketing)刘超在接受ZD至顶网采访时指出,华为提供了丰富的ICT能力,但同时又给合作伙伴提供了相应能力开放和开发支持的平台,OpenLab做到了为合作伙伴赋能,从而以生态的力量满足行业用户的复杂需求。
宇信科技华为事业部总经理朱建明、华为企业BG中国区副总裁(解决方案销售和Marketing)刘超、太极智慧城市与云服务战略业务本部常务副总经理肖益(从左至右)
华为OpenLab是一个为生态伙伴构建的开放的合作平台,它可以满足合作伙伴开发的诉求、解决行业客户的业务痛点。例如行业客户眼中的方案不成熟、上线周期长、交付保障弱、场景体验差等问题。合作伙伴则希望构建有竞争力的联合解决方案,包括孵化创新方案、降低开发成本、提高交付质量。据介绍,目前OpenLab已覆盖全球400多家解决方案及合作伙伴。刘超说,在中国区,OpenLab聚焦五大行业,与合作伙伴联合孵化覆盖了28个场景,去年联合验证的方案超过100个。
在合作伙伴眼里,OpenLab是构建ICT生态不可或缺的平台,太极智慧城市与云服务战略业务本部常务副总经理肖益认为OpenLab应对了两个挑战,一是技术的不断迭代和更新,一个企业很难在短期内完成技术的长期演变,二是客户的诉求也在不断变化,甚至很多工作在变化的面前需要重构。所以,OpenLab实现了产业链价值聚合,它发挥生态的力量去应对挑战。
肖益进一步指出,在北京政务云的项目中,OpenLab在华为与太极合作过程中扮演了重要角色,一个好的应用除了软硬件结合外,还需要与用户和业务的衔接,此前双方已经有紧密的联合并进行互补。并且双方已经开始探讨,基于OpenLab把太极的一些应用解决方案和华为的IT产品进行再一次的融合迭代和提升,以便为客户带来更好的体验。
在宇信科技华为事业部总经理朱建明看来,基于OpenLab平台上的合作方式是ISV在生态圈里面典型的价值体现,华为的研发可以和宇信科技的应用解决方案深度契合,整个平台的交付质量非常好,并且建设和开发成本大幅减少,给宇信科技带来了“多快好省”的价值。
据介绍,宇信科技的行业云已经放在华为苏州的OpenLab进行联合创新与验证,“同时,在OpenLab实现的联合创新成果,可以让世界各地的用户参观了解,反过来给我们ISV带来项目,所以是一个典型的互相促进的过程。”朱建明说。
当然,站在华为生态之道的角度,OpenLab不仅仅是个实验室,而是华为公司在企业市场的创新机制。“OpenLab对华为来说除了验证伙伴的方案、支持做POC的测试、提供在线的支持、包括展示的中心之外,在华为的业务设计里面,它也是向我们后端导入前端需求的联合创新的平台。”刘超表示,所以OpenLab是个广义的舞台。
刘超强调,OpenLab不是华为与伙伴相加打败谁,而是站在用户的角度看哪些需求还没有被满足。它是华为和伙伴看未来的一个窗口,从而更好地服务用户,助力企业商业成功。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。