在思科宣布计划收购BroadSoft之后,有合作伙伴敦促思科公布更多关于渠道战略和这次收购对利润和统一通信即服务(UCaaS)销售的潜在影响等更多细节。
NexCloud是Ubisec Systems公司的云服务部门,同时也是思科的合作伙伴,NexCloud首席架构师Edward Sohn表示:“问题是,对于我们这样了解托管模式,知道来自OEM或者厂商的直接模式可以让云模式更加奏效的UCaaS提供商来说,现在,从某种程度上来说,我们和思科是竞争的关系。”
有合作伙伴表示,BroadSoft将让思科旗舰的Spark平台变得更加可访问、可扩展,同时也在一个新的客户群体中扩大市场份额。“但令人担忧的是,思科将如何在一个面向渠道的市场中运用这一策略和这种类型的服务产品?我们现在可以售卖BroadSoft产品,但是BroadSoft的优势一直是与众多大型电信提供商合作。然后这些电信提供商再面向中小企业和大型企业进行售卖。我们无法触及这个市场,因为这一直都是由大型电信提供商控制着的”
一位来自解决方案提供商、思科金牌合作伙伴的高管表示,他很担心他在托管语音产品以及Cisco Hosted Collaboration Solution (HCS)上的投资是否会付诸东流。
这位不愿意透露姓名的高管还表示:“很多合作伙伴开发了大量专业服务构建这些内部部署的架构。如果这些都不存在了,我们该怎么办?我们已经在CCIE语音上做的投资该怎么办?未来我们在CCIE协作方面的同事该怎么办……更重要的是,我们怎么从中赚钱,保持利润?”
有合作伙伴表示,思科需要解释一下自己的UCaaS战略,以及BroadSoft解决方案将如何与思科新推出的Spark Flex Plan相结合。
有解决方案提供商正在敦促思科不要等到下周思科的合作伙伴峰会才公布与BroadSoft相关的市场战略。
“现在思科已经收购了BroadSoft,把产品组合扩展到中小企业。你需要告诉渠道合作伙伴,‘我们已经投资了HCS或者你自己的多租户协同解决方案——我们的平台将让你同样可以从服务中盈利,同样可以从订阅中得到利润,只是你不需要应对硬件和永久性许可’。思科需要向合作伙伴做清晰的说明,”这位思科金牌合作伙伴高管表示。
“如果我们有一个现有的客户,我们为什么要从Spark或者思科的什么平台上迁移到BroadSoft,放弃我们的利润?思科需要和合作伙伴谈一谈,确保在盈利和折扣计划上是双方一致的,这样现有的合作伙伴就不会受到这次收购的影响。”
思科预计将在2018年第一季度完成对BroadSoft近19亿美元的收购。
BroadSoft称自己是云PBX、统一通信、团队协作和联络中心解决方案的领导者。BroadSoft的云业务应用和平台在80个国家450多个服务提供商提供给客户,目前BroadSoft有超过1900万商业用户。
像AT&T和Verizon这样的电信巨头都已经整合了BroadSoft的平台,以提供他们自己的解决方案和服务。例如,Verizon的One Talk和AT&T的Collaborate就使用了BroadSoft的多租户平台BroadWorks。
Sohn表示:“对于思科来说,这可以确保把Spark植入更广泛的市场中,通过BroadSoft覆盖更多客户群体,因为BroadSoft通过像Verizon和AT&T这样的大型电信提供商与中小企业合作。你必须做一些变革来实现扩张,但同样的,我们现在在考虑思科是否在某些方面与我们形成竞争关系。”
思科在一则声明中表示,将把BroadSoft的开放接口、基于标准的云语音、通过服务提供商合作伙伴提供的联络中心解决方案与思科的会议、硬件和服务产品组合整合。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。