至顶网网络与安全频道 06月05日 编译:博通(Broadcom)周四发布第二季度财报(https://www.prnewswire.com/news-releases/broadcom-inc-announces- second-quarter-fiscal-year-2020-financial-results-and-quarterly-dividends-301071010.html),收入超出市场预期。不过,博通公司首席执行官Hock Tan表示,博通预计第三季度的收益将被供应链限制抵消以及“无线部分将大幅重置”。
博通第二季度非公认会计准则(Non-GAAP)摊薄后每股收益为5.14美元,营收57.42亿美元,增长4%。之前分析师预期每股收益为5.14美元、营收为56.9亿美元。
Tan在一份声明中称,“第二季度的结果符合我们的预期,受COVID-19的影响有限。至于未来的第三季度,在半导体第三季度指引上反映了云、电信及企业客户的需求激增被供应链限制所抵消,无线部分预期将大幅重置。博通将继续聚焦各种关键任务半导体和软件特许经营权的投资,同时在不确定的环境里小心管理我们的费用。”
博通宣布曾在3月31日支付了每股普通股3.25美元的现金股息,总计13.06亿美元,并支付了每股20美元的强制性可转换优先股的现金股息,总计7500万美元。博通预计第三季度收入为57.5亿美元,上下浮动1.5亿美元。
另据其他消息, MongoDB发布的第一季度财务业绩优于预期(https://www.prnewswire.com/news-releases/mongodb-inc-announces-first-quarter-fiscal-2021-financial-results-301071036.html),原因是COVID-19危机导致了数字化的加速转型。
MongoDB的非公认会计准则净亏损为730万美元,合每股13美分。总收入达1.303亿美元,同比增长46%。市场之前预期MongoDB每股净亏损25美分,营收1.1962亿美元。
MongoDB首席执行官Dev Ittycheria在一份声明中表示,“MongoDB在COVID-19大流行期间强劲的第一季度表现证明了我们的现代数据平台对客户成功的价值。MongoDB平台的速度和敏捷性令客户能够快速适应不断变化的业务条件。”
Ittycheria还表示,“COVID-19的影响将会比我们在本财年初的预期更长,但我们看到的明显迹象表明,当前的环境将加强数字化转型和云迁移长期趋势的力度。MongoDB显然是该趋势的受益者,我们将继续进行投资,充分利用这个市场机会。”
MongoDB表示,截至4月30日,客户超过18,400。MongoDB旗下的全球云数据库Atlas收入占第一季度总收入的42%,同比增长超过75%。订阅收入为1.249亿美元,同比增长49%,服务收入为550万美元,同比增长1%。
MongoDB预计第二季度营收将在1.25亿美元至1.27亿美元之间。预计2021财年全年收入在5.2亿美元至5.3亿美元之间。
另外,Domo第一季度财务业绩也超过预期(http://www.globenewswire.com/news-release/2020/06/04/2043998/0/zh_CN/Domo-Announces-First-Quarter-Fiscal-2021-Financial-Results.html)。数据分析公司Domo的非公认会计准则净亏损为1840万美元,合每股65美分。总收入为4,860万美元,同比增长19%。
华尔街分析师此前预期每股净亏损91美分,营收为4565万美元。
首席执行官Josh James在一份声明中表示,“我们Domo的构建完全能够满足时下的需求,实时打包信息便于轻松消费,可以在任何设备上进行大规模分发,可以在创纪录的时间内提供。我们很高兴能够帮助三个州的州长在当前的健康危机时期访问他们需要管理的实用数据。我们现在将为私营部门推出相同的功能,帮助他们管理员工队伍,帮助他们安全地返回工作岗位,为他们提供在我们平台上构建的应用和解决方案应付这个特殊时期。”
Domo第一季度的订阅收入为4,240万美元,同比增长23%,占总收入的87%。账单部分收入为4,650万美元,同比增长13%。Domo预计第二季度收入在4850万美元至4950万美元之间。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。