Google将不再接受AI生成的开源软件漏洞报告,但正在资助一项使用AI加强开源代码安全的单独项目。
Google开源软件漏洞奖励计划团队日益关注AI生成的漏洞报告质量低下问题,其中许多报告包含对漏洞触发方式的幻觉,或报告安全影响极小的错误。
Google在博客文章中写道:"为了确保我们的分级团队能够专注于最关键的威胁,我们现在将要求对特定等级提供更高质量的证明(如OSS-Fuzz复现或合并补丁),以过滤掉低质量报告,让我们专注于现实世界的影响。"
Linux基金会也发现AI生成的漏洞报告数量过于庞大,已向包括Google、Anthropic、AWS、微软和OpenAI在内的AI公司寻求财务帮助来解决这个问题。这些公司共同向基金会贡献了1250万美元,用于改善开源软件的安全性。
Linux内核项目的Greg Kroah-Hartman在博客文章中表示:"仅仅提供资助资金无法帮助解决AI工具今天在开源安全团队上造成的问题。OpenSSF拥有支持众多项目所需的活跃资源,这将帮助这些超负荷工作的维护者处理和分类他们目前收到的增加的AI生成安全报告。"
资金将由开源安全项目Alpha-Omega和开源安全基金会(OSSF)管理,并将用于为维护者提供AI工具,帮助他们处理AI生成的提交量。
Alpha-Omega联合创始人Michael Winser表示:"我们很兴奋能为支撑我们世界的数十万个项目提供以维护者为中心的AI安全协助。"
Q&A
Q1:为什么Google停止接受AI生成的漏洞报告?
A:因为AI生成的漏洞报告质量低下,许多报告包含对漏洞触发方式的幻觉或报告安全影响极小的错误,影响了团队处理真正重要威胁的效率。
Q2:AI公司向Linux基金会投资了多少钱?用来做什么?
A:Google、Anthropic、AWS、微软和OpenAI等公司共同向Linux基金会贡献了1250万美元,用于改善开源软件安全性,并为维护者提供AI工具来处理大量AI生成的安全报告。
Q3:OpenSSF和Alpha-Omega在这个项目中起什么作用?
A:这两个组织将负责管理1250万美元的资金,并利用这些资金为开源项目维护者提供AI工具,帮助他们更好地分类和处理增加的AI生成安全报告。
好文章,需要你的鼓励
Kollmorgen发布NDC布局助手软件工具,专为工厂和仓库中的自动导引车(AGV)及自主移动机器人(AMR)的路线规划与优化而设计。该工具通过分段分析路线,帮助工程师在系统部署前识别瓶颈与低效环节,提供行驶时间、车速及优化潜力等关键数据,并以可视化方式标注问题区域,从而缩短布局设计与验证周期。Kollmorgen表示,该工具未来还将融入AI驱动的优化能力。
这篇由加州大学圣地亚哥分校等六所机构联合发布的综述(arXiv:2605.02913,2026年4月),首次系统梳理了大型语言模型强化学习训练中长期被忽视的轨迹设计问题,提出了GFCR四模块框架(生成、过滤、控制、回放),覆盖数学、代码、多模态和智能代理等多个应用场景,并附有实用的故障诊断手册,为AI训练工程师提供系统性的方法论指导。
现代仓储已从幕后走向前台,配送速度成为品牌竞争核心。面对次日达甚至两小时送达的市场压力,领先履约中心借鉴敏捷开发理念,以周为单位迭代代码、机器人与工作流程。IoT信标、边缘计算与视觉识别模块构建双层架构,实现厘米级货盘追踪与低延迟决策。人机协作模式让员工从重体力劳动转向异常处理与数据分析,拣选准确率突破99%。同时,自动化系统实时采集碳排放数据,在提速的同时实现可量化的减排目标。
中国科学技术大学与FrameX.AI联合提出Stream-R1框架,针对AI视频生成蒸馏训练中"一视同仁"的核心缺陷,引入奖励模型对训练样本进行双重加权:在样本层面根据质量分数筛选可靠的学习信号,在像素与帧层面通过梯度显著性热力图集中优化最需改进的区域,使4步快速学生模型在VBench多项指标上超越慢速多步教师模型,推理速度提升30倍且不增加任何额外计算开销。