至顶网网络与安全频道 08月05日 编译:Linux Foundation近日表示,将发起一个新的基金会,旨在将全球最重要的开源安全计划纳入一个新的框架下。新成立的Open Source Security Foundation(OpenSSF)将承载一系列安全项目,例如为响应2014年Open SSL协议发现臭名昭著的Heartbleed漏洞而设立的Core Infrastructure Initiative项目,以及由GitHub安全实验室在2019年发起成立的Open Source Security Coalition。
OpenSSF的创始成员包括GitHub、Google、IBM、英特尔、微软、Red Hat、Uber和VMware等知名科技公司。
OpenSSF的目标是通过整合最受欢迎的项目和支持这些项目的企业,以简化行业的开源安全流程。OpenSSF创始人表示,如今开源软件在科技领域已经相当普及,使用范围覆盖了从数据中心到消费者设备的方方面面。
OpenSSF认为,当前大多数开源软件项目都非常复杂,贡献者链条长,依存性使得安全性得不到保障。因此,企业迫切需要了解和验证这些依存链条的安全性。
OpenSSF已经成立了理事会和技术咨询委员会,计划主持一系列旨在保护全球最受欢迎开源软件的项目。这个想法与由Linux Foundation承载的Cloud Native Computing Foundation有点相似,后者是推动开发重要开源Cloud Native软件项目(例如Kubernetes)的一个重要组织。
Linux Foundation执行董事Jim Zemlin表示:“我们相信,开源是一种公共资产,在每个行业中,我们都有责任共同努力去改善和支持我们所依赖的开源软件的安全性。确保开源安全,是我们可以做的最重要的事情之一,这需要全球各地所有人的共同努力。OpenSSF将为此展开真正的、协作的、跨产业的共同努力。”
Constellation Research分析师Holger Mueller表示,“确保开源软件的安全性是至关重要的,因为这是少数几个传统专有软件资产保持优势的领域之一。”
Mueller还讲到:“很高兴看到这项计划得到广泛支持,因为安全措施不应该是零散的,安全性非常重要,不能过于复杂,否则对于下一代应用来说,采用成本就会很高。”
好文章,需要你的鼓励
香港中文大学与华为诺亚方舟实验室合作开发了PreMoe框架,解决了大型混合专家模型(MoE)在内存受限设备上的部署难题。研究团队发现MoE模型中的专家表现出明显的任务专业化特征,据此提出了概率专家精简(PEP)和任务自适应专家检索(TAER)两大核心技术。实验证明,DeepSeek-R1 671B模型在精简50%专家后仍保持97.2%的MATH500准确率,内存需求降至688GB;而更激进的精简方案(减少87.5%专家)也能保持72.0%的准确率。该方法适用于多种MoE架构,为强大AI系统的广泛部署铺平了道路。
SCIENCEBOARD是一项开创性研究,旨在评估多模态自主智能体在真实科学工作流中的表现。研究团队构建了一个包含169个高质量任务的基准测试,涵盖生物化学、天文学等六个科学领域,并开发了一个真实环境让智能体通过CLI或GUI接口与科学软件交互。实验评估表明,即使是最先进的模型在这些复杂科学任务上的成功率也仅为15%,远低于人类表现,揭示了当前技术的局限性并为未来科学智能体的发展提供了宝贵见解。
帝国理工学院的研究团队开发了AlphaMed,这是首个仅通过极简规则强化学习就能培养医疗推理能力的AI模型,无需依赖传统的思维链示范数据。通过分析数据信息丰富度和难度分布的影响,研究发现高信息量的医疗问答数据是推理能力的关键驱动因素。AlphaMed在六个医疗问答基准上取得了领先成绩,甚至超越了更大的封闭源模型,同时展现出自发的步骤推理能力,为医疗AI发展提供了更加开放、高效的新路径。
Alita是一种新型通用AI代理系统,采用极简设计理念,以"最小预定义,最大自我进化"为原则构建。由普林斯顿大学等多家机构研究团队开发的Alita,只配备一个核心能力和少量通用模块,能自主创建所需工具并重用为模型上下文协议(MCPs)。实验显示,Alita在GAIA基准测试上达到87.27%的通过率,超越包括OpenAI Deep Research在内的复杂系统,证明简约设计可带来卓越性能。