至顶网网络与安全频道 08月05日 编译:Linux Foundation近日表示,将发起一个新的基金会,旨在将全球最重要的开源安全计划纳入一个新的框架下。新成立的Open Source Security Foundation(OpenSSF)将承载一系列安全项目,例如为响应2014年Open SSL协议发现臭名昭著的Heartbleed漏洞而设立的Core Infrastructure Initiative项目,以及由GitHub安全实验室在2019年发起成立的Open Source Security Coalition。
OpenSSF的创始成员包括GitHub、Google、IBM、英特尔、微软、Red Hat、Uber和VMware等知名科技公司。
OpenSSF的目标是通过整合最受欢迎的项目和支持这些项目的企业,以简化行业的开源安全流程。OpenSSF创始人表示,如今开源软件在科技领域已经相当普及,使用范围覆盖了从数据中心到消费者设备的方方面面。
OpenSSF认为,当前大多数开源软件项目都非常复杂,贡献者链条长,依存性使得安全性得不到保障。因此,企业迫切需要了解和验证这些依存链条的安全性。
OpenSSF已经成立了理事会和技术咨询委员会,计划主持一系列旨在保护全球最受欢迎开源软件的项目。这个想法与由Linux Foundation承载的Cloud Native Computing Foundation有点相似,后者是推动开发重要开源Cloud Native软件项目(例如Kubernetes)的一个重要组织。
Linux Foundation执行董事Jim Zemlin表示:“我们相信,开源是一种公共资产,在每个行业中,我们都有责任共同努力去改善和支持我们所依赖的开源软件的安全性。确保开源安全,是我们可以做的最重要的事情之一,这需要全球各地所有人的共同努力。OpenSSF将为此展开真正的、协作的、跨产业的共同努力。”
Constellation Research分析师Holger Mueller表示,“确保开源软件的安全性是至关重要的,因为这是少数几个传统专有软件资产保持优势的领域之一。”
Mueller还讲到:“很高兴看到这项计划得到广泛支持,因为安全措施不应该是零散的,安全性非常重要,不能过于复杂,否则对于下一代应用来说,采用成本就会很高。”
好文章,需要你的鼓励
OpenAI发布了音视频生成模型Sora 2,同时推出配套社交应用Sora,用户可生成包含自己的视频并在类似TikTok的信息流中分享。Sora 2在物理定律遵循方面有显著改进,视频更加真实。应用提供"客串"功能,允许用户将自己植入生成场景中,并可与朋友分享形象使用权限。该iOS应用目前在美加地区采用邀请制,ChatGPT Pro用户可直接体验。
Queen's大学研究团队提出结构化智能体软件工程框架SASE,重新定义人机协作模式。该框架将程序员角色从代码编写者转变为AI团队指挥者,建立双向咨询机制和标准化文档系统,解决AI编程中的质量控制难题,为软件工程向智能化协作时代转型提供系统性解决方案。
大语言模型和生成式AI自诞生以来问题频发,从推理模型表现不佳到AI幻觉现象,再到版权诉讼,这些都表明当前技术路径可能并非通往真正智能的正确道路。专家认为,仅靠增加数据和算力的扩展模式已显现边际效应递减,无法实现通用人工智能。研究者提出智能应包含统计、结构、推理和目标四个层次的协调,并强调时间因果性的重要性。面对LLM技术局限,业界开始探索神经符号AI等替代方案。
西北工业大学与中山大学合作开发了首个超声专用AI视觉语言模型EchoVLM,通过收集15家医院20万病例和147万超声图像,采用专家混合架构,实现了比通用AI模型准确率提升10分以上的突破。该系统能自动生成超声报告、进行诊断分析和回答专业问题,为医生提供智能辅助,推动医疗AI向专业化发展。