至顶网网络频道 05月17日 国际消息: 思科系统公司可能终于有起色了,但投资者仍觉得不够快。
网络巨头思科今天发布了第三季度财报,收入为125亿美元,同比增长4%,连续两个季度增长,云计算时代的思科一直在试图转型旗下的业务。
第三季度每股盈利56美分,在未扣除股票补贴和税收优惠前为66美分,同比上涨10%。
最重要的是,来自软件和订阅的经常性收入增长了38%,占总收入的32%,同比上升2%。这一点颇为重要,因为这表明思科正在朝基于订阅的业务模式稳步过渡,诸如亚马逊网络服务及微软公司的Azure等云计算巨头的业务模式都是基于订阅的业务模式。思科是世界上最大的网络交换机和路由器制造商,旗下的产品大量用于互联网和大型企业网络的数据传输。
投资者对递延收入特别感兴趣,递延收入包括基于订阅的收入和软件收入,因为这些可表明未来业务的稳定性。递延收入同比上涨了9%,递延产品收入增长了18%,递延服务收入增长了4%。经常性软件和订阅的收入部分达56亿美元,增长了29%。
首席执行官Chuck Robbins(题图)在财报电话会议上表示,“我们实现了又一个季度的 收入加速增长。在更多业务朝订阅和软件转型方面我们也取得了稳步进展。”
之前各家分析师的预测平均下来为调整后的利润65美分,收入124亿美元,大致在思科上个季度预测的数字的中间。
思科一直在努力将旗下的业务从走下坡的硬件转型为软件和订阅服务,连续六个季度收入下滑后终于录得连续两个季度的增长。
思科还发布了新预测,本季度的预测收入同比增长为4%至6%,调整后利润为68美分至70美分。分析师的预测为69美分,收入127.2亿美元。
但业绩报告特别是低调的预测并没有刺激投资者,投资者可能曾希望业绩会更好一点。思科股价在盘后交易中下跌约4%,在正常交易中下跌至45.16美元,跌幅0.7%。思科的股价今年上涨了约18%。
思科第三季度及后续季度的关键仍然是思科旗舰Catalyst 9000网络交换机,因为硬件客户和软件订阅客户都必须注册才能使用该产品。 Robbins表示,Catalyst 9000网络交换机是旗下增长最快的产品,尤其是其分析软件具有“高度吸引力”。他表示,该产品现在有5800个客户,上一季度只有3100个,有时一天就增加了40多个客户。
思科前方的道路可能仍然会崎岖不平。思科与微软、谷歌和中国的阿里巴巴集团等大型云计算提供商之间取得了小小的进展,这些公司大部分都在打造自己的网络设备。但思科可能仍需要设法说服更多的所谓“超大规模”公司在购买自己的设备同时购买软件订阅。本季度思科的基础架构平台业务收入为72亿美元,仅增长了2%。
其他业务部门的表现更好一些。应用程序收入增长了19%,达13亿美元,安全收入增长了11%,达5.83亿美元。服务增长了3%,达32亿美元。
另外,思科继续其稳健的收购步伐,最近一次的收购是Accompany Inc.,花了2.7亿美元的现金, 5月1日已获得股权奖励。Accompany是一家总部位于加利福尼亚州洛斯阿尔托斯的私人公司,主要出售关系智能平台,可用于寻找新的潜在客户及利用人工智能管控销售流程。
思科同时还在考虑对一些资产进行修改。思科5月1日曾宣布计划将旗下的视频软件业务卖给私募股权公司Permira Advisers Ltd.,据说交易额可高达10亿美元。
该笔现金的流入可能是会有更大动作的部分原因。Barclays分析师Mark Moskowitz在几个月前的一份报告中告诉客户,由于美国今年的税收举措,思科今年会利用从海外落地美国的现金 “进行与安全性、数据分析即服务或即时通讯相关的变革性收购,我们认为投资者对此举会鼓掌喝彩。“
Piper Jaffray的一些分析师最近提出,思科通过购买所谓的超融合系统和软件提供商Nutanix公司大有可能在竞争中受益,特别是与VMware Inc.竞争。但是,收购的市场估值为94亿美元,这即便对思科来说也是一个大数目。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。