ZD至顶网网络频道 08月16日 综合消息:统一通信的格局正在被动摇,厂商们争相成为以云为导向,这样他们就可以满足市场对基于云的统一通信解决方案的需求。
Converged Technology Professionals是一家总部位于伊利诺伊州水晶湖的解决方案提供商,同时也是微软及ShoreTel的合作伙伴公司,该公司业务开发及管理合伙人总裁Joe Rittenhouse表示,“我们知道,统一通信世界正在以超过以往任何时候的速度发生变化。任何关注统一通信行业这些趋势的人都知道,很多公司都对整合有着浓厚的兴趣——Polycom、Avaya、Mitel、ShareTel,等等。”
业界老牌厂商如Avaya和ShoreTel正在聘请金融顾问,探索新的战略选择,其中可能包括潜在出售公司或者出售特定资产。Polycom即将被Siris Capital Group收购,ShoreTel最近收购了基于云的统一通信专业公司Corvisa。
没有能成功收购Polycom的Mitel在去年收购了基于云的统一通信提供商Mavenir,现在正在积极准备更多收购,Mitel高管在公司最近的一次财报电话会议上这样表示。
研究公司Gartner预计在统一通信领域将会有更多整合,用户期望值也会有所提高,这将促使人们更重视厂商的财务可行性。
“内部部署的统一通信与云、混合统一通信服务的整合,将继续扮演重要的角色,”Gartner统一通信分析师Bern Elliot表示。“随着企业统一通信市场逐渐成熟,我们预计将会发生更多的整合。”
随着客户对基于云的解决方案的需求逐渐增加,尽管市场领导厂商思科和微软拥有足够的资金实力,但其他厂商也会采取更为激进的措施。
根据市场分析公司MarketsandMarkets预测,全球UCaaS市场预计将从2015年的151亿美元增加到2020年的248亿美元,复合年增长率大约是11%。在北美,UCaaS去年带来了近40亿美元的收入,分析公司IHS预计该市场到2020年年增长率为20%。
5月,有知情人士称,Avaya的所有方私募股权公司Siler Lake Partner和TPG Capital正在考虑卖掉公司或者出售特定资产。据路透社报道称,呼叫中心软件提供商Genesys Telecommunications目前正在谈判以大约40亿美元的价格收购Avaya的合同中心业务。
来自一家解决方案提供商、Avaya长期合作伙伴的高管称,Avaya正在试图通过成为一家通信软件和服务提供商在云时代站稳脚跟。向云的变革,以及庞大的债务,正在让Avaya“颠覆自己”,他说。
“他们现在需要为未来而战,”他说。
ShoreTel也在专注于提供更多的云和混合云、强调UCaaS的解决方案。
在最近的季度财报电话会议上,ShoreTel透露,他们的董事会成员已经结成战略顾问委员会,会探讨各种方案,其中可能包括出售公司部分业务或者整个公司。ShoreTel聘请了J.P. Morgan Securities作为财务顾问,聘请Fenwick & West作为法律顾问。
“从ShoreTel合伙人的角度来说,我并不把这视为一个负面的举动,而且,这正是我个人希望看到的,”Converged Technology Professionals的Rittenhouse这样表示。“他们在探索各种可能,这是他们应该做的。目前最糟糕的事情就是假装我们并没有遭遇业务必须适应的天翻地覆的变化。”
统一通信提供商Lifesize走出了战略性的一步,在今年年初从Logitech中剥离出来,希望成为一家云和UCaaS提供商。
“你将看到的是实现、战略、以及对某些组织机构的关注,”Rittenhouse说。“这表明他们正在考虑看他们是否有一个可以持续的、可以扩展的、强大的云模式,现在他们正在实现这个目标。”
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。