至顶网网络与安全频道 08月05日 编译:Linux Foundation近日表示,将发起一个新的基金会,旨在将全球最重要的开源安全计划纳入一个新的框架下。新成立的Open Source Security Foundation(OpenSSF)将承载一系列安全项目,例如为响应2014年Open SSL协议发现臭名昭著的Heartbleed漏洞而设立的Core Infrastructure Initiative项目,以及由GitHub安全实验室在2019年发起成立的Open Source Security Coalition。
OpenSSF的创始成员包括GitHub、Google、IBM、英特尔、微软、Red Hat、Uber和VMware等知名科技公司。
OpenSSF的目标是通过整合最受欢迎的项目和支持这些项目的企业,以简化行业的开源安全流程。OpenSSF创始人表示,如今开源软件在科技领域已经相当普及,使用范围覆盖了从数据中心到消费者设备的方方面面。
OpenSSF认为,当前大多数开源软件项目都非常复杂,贡献者链条长,依存性使得安全性得不到保障。因此,企业迫切需要了解和验证这些依存链条的安全性。
OpenSSF已经成立了理事会和技术咨询委员会,计划主持一系列旨在保护全球最受欢迎开源软件的项目。这个想法与由Linux Foundation承载的Cloud Native Computing Foundation有点相似,后者是推动开发重要开源Cloud Native软件项目(例如Kubernetes)的一个重要组织。
Linux Foundation执行董事Jim Zemlin表示:“我们相信,开源是一种公共资产,在每个行业中,我们都有责任共同努力去改善和支持我们所依赖的开源软件的安全性。确保开源安全,是我们可以做的最重要的事情之一,这需要全球各地所有人的共同努力。OpenSSF将为此展开真正的、协作的、跨产业的共同努力。”
Constellation Research分析师Holger Mueller表示,“确保开源软件的安全性是至关重要的,因为这是少数几个传统专有软件资产保持优势的领域之一。”
Mueller还讲到:“很高兴看到这项计划得到广泛支持,因为安全措施不应该是零散的,安全性非常重要,不能过于复杂,否则对于下一代应用来说,采用成本就会很高。”
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
中科院联合字节跳动开发全新AI评测基准TreeBench,揭示当前最先进模型在复杂视觉推理上的重大缺陷。即使OpenAI o3也仅获得54.87%分数。研究团队同时提出TreeVGR训练方法,通过要求AI同时给出答案和精确定位,实现真正可追溯的视觉推理,为构建更透明可信的AI系统开辟新路径。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
PyVision是上海AI实验室开发的革命性视觉推理框架,让AI系统能够根据具体问题动态创造Python工具,而非依赖预设工具集。通过多轮交互机制,PyVision在多项基准测试中实现显著性能提升,其中在符号视觉任务上提升达31.1%。该框架展现了从"工具使用者"到"工具创造者"的AI能力跃迁,为通用人工智能的发展开辟了新路径。