中国北京,2023年2月10日——提供人工智能驱动安全网络的领导厂商瞻博网络(NYSE:JNPR)今天发布了最新的瞻博网络全球合作伙伴优势(Juniper Partner Advantage ,JPA)计划。瞻博网络在去年推出了一个新的精英合作伙伴层级Elite Plus,现对JPA进行大规模升级。
精英合作伙伴层级的优质成员数量正在按预期向30%的增速目标迈进,进入2023年,瞻博网络又为其更广泛的JPA合作伙伴优势计划引入了新的内容,通过托管服务帮助合作伙伴为它们的客户提供最具创新性的解决方案。新的JPA架构有助于合作伙伴构建和支持瞻博网络业务,以网络即服务(NaaS)模式经销瞻博网络的解决方案和托管服务。凭借新的设计、销售和市场营销工具,合作伙伴可以定制计划,提升盈利能力,推动持续增长,并获得更多奖励和回报。合作伙伴也可以更快地进入更高层级,预计2023年精英合作伙伴的规模将继续扩大。
瞻博网络全球渠道与虚拟销售集团副总裁Gordon Mackintosh表示:“我们90%的业务都来自合作伙伴,它们的成功对于我们至关重要。我们在2023年升级这一计划,是基于合作伙伴为先的理念,以确保为合作伙伴提供他们发展业务所需的战略、投资和工具。我们相信,凭借业界一流的合作伙伴计划与市场上最具创新性的产品,瞻博网络可为合作伙伴提供更为有力的支持。”
2023计划新增亮点包括:
- 顶级合作伙伴层级Elite Plus:瞻博网络将在今年为最优秀的合作伙伴提供更多支持,包括新的ROI模型、简化的MOU流程和新的奖励措施,推动合作伙伴持续增长。
- 扩展的领军者计划:瞻博网络领军者(Champions)计划于2022年再次启动,其成员已从800人发展至2300人,今后将进一步扩大。2023年,瞻博网络将为包括全球合作伙伴、营销合作伙伴和瞻博网络分销商在内的更大合作伙伴群体提供更多优势。
- 全新数字工具:瞻博网络在今年推出了合作伙伴业务中心和Velocity定价工具。配合PartnerLink,合作伙伴可实时获得瞻博网络团队的帮助,从而快速完成交易。
- 扩展的“多元化+”合作伙伴计划:该计划支持经过认证的多元化合作伙伴企业,并在6个月的时间内发展至44家合作伙伴,并计划在2023年覆盖更大范围。
瞻博网络全球合作伙伴计划和营销副总裁Helda Lopes表示:“通过新的Velocity定价工具、合作伙伴业务中心和优势洞察(Advantage Insights)等资源,我们的合作伙伴在2023年能够更高效地采取行动、更快地完成交易,并在更高水平进行竞争。我们非常重视合作伙伴的成功,愿意通过新的解决方案和计划等助力他们的成功,这些也都是我们实现发展的关键。瞻博网络在不同层次的分销合作伙伴数量在2022年增加了18%,我们预计2023年将继续保持这一增长趋势。”
随着合作伙伴计划不断发展壮大,瞻博网络也在扩大领导层团队,以确保公司适应现代网络的挑战,继续快速推进业务。因此,Ben Fallon加入了瞻博网络,任全球合作伙伴与虚拟销售副总裁,负责根据瞻博网络快速发展的虚拟销售形势进一步优化渠道合作。他拥有丰富的全球渠道、分销、欧洲、中东和非洲商业、小企业与安全销售和市场开发经验,为瞻博网络带来了深厚的行业知识和前瞻性理念。
Ben Fallon表示:“瞻博网络对Mist、Apstra和128 Technologies等公司的投资让我们可以继续引领下一代企业网络。我十分高兴在这一激动人心的时刻加入瞻博网络团队。”
以上计划于近日启动,更多信息将于瞻博网络年度合作伙伴高层峰会上分享。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。