至顶网网络与安全频道 08月05日 编译:Linux Foundation近日表示,将发起一个新的基金会,旨在将全球最重要的开源安全计划纳入一个新的框架下。新成立的Open Source Security Foundation(OpenSSF)将承载一系列安全项目,例如为响应2014年Open SSL协议发现臭名昭著的Heartbleed漏洞而设立的Core Infrastructure Initiative项目,以及由GitHub安全实验室在2019年发起成立的Open Source Security Coalition。
OpenSSF的创始成员包括GitHub、Google、IBM、英特尔、微软、Red Hat、Uber和VMware等知名科技公司。
OpenSSF的目标是通过整合最受欢迎的项目和支持这些项目的企业,以简化行业的开源安全流程。OpenSSF创始人表示,如今开源软件在科技领域已经相当普及,使用范围覆盖了从数据中心到消费者设备的方方面面。
OpenSSF认为,当前大多数开源软件项目都非常复杂,贡献者链条长,依存性使得安全性得不到保障。因此,企业迫切需要了解和验证这些依存链条的安全性。
OpenSSF已经成立了理事会和技术咨询委员会,计划主持一系列旨在保护全球最受欢迎开源软件的项目。这个想法与由Linux Foundation承载的Cloud Native Computing Foundation有点相似,后者是推动开发重要开源Cloud Native软件项目(例如Kubernetes)的一个重要组织。
Linux Foundation执行董事Jim Zemlin表示:“我们相信,开源是一种公共资产,在每个行业中,我们都有责任共同努力去改善和支持我们所依赖的开源软件的安全性。确保开源安全,是我们可以做的最重要的事情之一,这需要全球各地所有人的共同努力。OpenSSF将为此展开真正的、协作的、跨产业的共同努力。”
Constellation Research分析师Holger Mueller表示,“确保开源软件的安全性是至关重要的,因为这是少数几个传统专有软件资产保持优势的领域之一。”
Mueller还讲到:“很高兴看到这项计划得到广泛支持,因为安全措施不应该是零散的,安全性非常重要,不能过于复杂,否则对于下一代应用来说,采用成本就会很高。”
好文章,需要你的鼓励
OpenAI、Anthropic和Google的AI代码助手现在能够在人工监督下连续工作数小时,编写完整应用、运行测试并修复错误。但这些工具并非万能,可能会让软件项目变得复杂。AI代码助手的核心是大语言模型,通过多个LLM协作完成任务。由于存在上下文限制和"注意力预算"问题,系统采用上下文压缩和多代理架构来应对。使用时需要良好的软件开发实践,避免"氛围编程",确保代码质量和安全性。研究显示经验丰富的开发者使用AI工具可能反而效率降低。
这项研究由北京交通大学研究团队完成,系统阐述了人工智能智能体从"流水线"范式向"模型原生"范式的转变。研究表明,通过强化学习,AI可以自主学会规划、使用工具和管理记忆等核心能力,而不再依赖外部脚本。论文详细分析了这一范式转变如何重塑深度研究助手和GUI智能体等实际应用,并探讨了未来多智能体协作和自我反思等新兴能力的发展方向。
英伟达与AI芯片竞争对手Groq达成非独家授权协议,将聘请Groq创始人乔纳森·罗斯、总裁桑尼·马德拉等员工。据CNBC报道,英伟达以200亿美元收购Groq资产,但英伟达澄清这并非公司收购。Groq开发的LPU语言处理单元声称运行大语言模型速度快10倍,能耗仅为十分之一。该公司今年9月融资7.5亿美元,估值69亿美元,为超200万开发者的AI应用提供支持。
Prime Intellect团队发布开源AI训练全栈INTELLECT-3,这个106亿参数模型在数学、编程等测试中超越多个大型前沿模型。团队完全开源了包括prime-rl训练框架、环境库、代码执行系统在内的完整基础设施,为AI研究社区提供了高质量的训练工具,推动AI技术民主化发展。