至顶网网络频道 02月14日 编译:思科昨天公布了表现强劲的第二季度财报,其结果超出了华尔街的预期,看起来相当不错。思科股票在周三延长交易中上涨了近4%,此前根据思科的财报显示,在如股票补偿等某些特定成本之前的利润为每股73美分,收入同比增长5%,达到124.5亿美元。此前华尔街预期该季度思科的每股收益为72美分,收入124.1亿美元。
据悉,思科的所有三个主要业务都做得很好。基础设施平台(包括数据中心交换机和路由器)作为思科最大的业务基础设施平台,收入达到了71.3亿美元,高于分析师预期的70.7亿美元。另外安全业务也表现良好,季度营收为6.58亿美元,轻松超过分析师预期的6.29亿美元。
更重要的是,思科的应用业务(包括协作工具和AppDynamics应用性能监控软件)也超过了分析师的预期。该部门对思科来说至关重要,因为思科将其视为增长的关键驱动因素。该季度应用业务的销售额达到了14.7亿美元,远高于13.5亿美元的预期。
思科首席执行官罗卓克(Chuck Robbins)在声明中指出该季度“表现强劲”。他说:“团队执行得非常好,积极地过渡到软件模型,并加快了我们的创新步伐。”
思科的强劲表现似乎验证了思科的长期战略,即将更多地转型为一家软件公司,这一转型旨在支持多云数据中心环境的新世界,减少对硬件销售的依赖。
Pund-IT技术行业分析师Charles King表示,思科软件和安全业务的强劲表现验证了罗卓克的战略,在他取代了硅谷传奇人物约翰·钱伯斯(John Chambers)之后巩固了他在思科的角色。
King说:“另外值得注意的是,许多人认为在过去一个季度的市场经济和贸易问题并没有像预期的那样可怕或者具有挑战性。如果这些情况发生变化,或者出现很多人担心的经济衰退,那么思科和很多其他公司的前景将会相当暗淡。但就目前而言,思科的表现看起来是值得投资者欢呼的。”
思科向多云数据中心网络提供商的转型,也是本月早些时候思科在巴塞罗那举行Cisco Live大会的一个核心主题。在这次大会上,思科宣布推出了一个关键的新架构,将数据中心扩展到客户数据的所在地,以及应用部署的任何地方。
这一新架构是基于一个扩展的Application Centric Infrastructure平台,该平台现在覆盖多个公有云,包括AWS和微软Azure。思科云解决方案营销高级总监Fabio Gori在接受采访时表示,思科正在试图缩小业务需求与网络交付能力之间的差距。如果最新的财报结果是个风向标的话,那么说明思科的这个目标得到了客户的共鸣。
另外,该季度思科也进行了一次大规模收购,以6.6亿美元收购了高速光网络专有芯片制造商Luxtera。分析师当时表示,这对思科来说是一个很好的举措,因为Luxtera目前是最大的硅光子芯片制造商。这种芯片用于支持通过光缆传输数据,比传统铜缆速度更快。这次收购也让思科处于有利地位,可以满足基于云的物联网应用对更高带宽的需求。
Constellation Research首席分析师兼副总裁Holger Mueller表示:“思科正在重组产品,从网络和硬件转向软件和服务。这一重组似乎进展顺利,看起来思科已经重新恢复了增长模式。但在此之前,我们必须看到更多季度的稳健增长。与此同时,思科产品仍然吸引着CxO为下一代应用提供动力。”
展望第三季度,思科预计收入将增长4%至6%,每股收益在76美分至78美分之间,而分析师预期为77美分。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。