该报告的主要发现是,英特尔在2022年解决的漏洞中,有93%是直接源自于英特尔对产品安全保障的投资。英特尔在2022年发布的243个通用漏洞披露(CVE)中,约有137个(即56%)是由英特尔员工在内部发现的。
自2019年发布第一份产品安全报告以来,平均93%已发布的CVE都是英特尔在产品安全保障方面投资的直接结果。在2022年外部研究人员报告的106个漏洞中,有90个(即85%)漏洞是通过英特尔的漏洞赏金计划报告的。
英特尔表示,成功发现漏洞很大程度上要归功于英特尔安全开发生命周期(Intel Security Development Lifecycle),该生命周期可以指导企业在整个产品生命周期中跨硬件和软件(包括固件)应用隐私和安全实践。
生命周期从规划和评估开始,确定通过开发解决产品预期安全风险所需的SDL活动。第二步,涉及构建和开发驱动适当安全要求和目标的威胁模型。在设计阶段,根据安全目标、威胁和要求进行安全和隐私分析。
第四阶段,也就是实施阶段,涉及持续评估进展情况,以确保实施是按计划进行的,提供值得信赖的产品。第五个阶段是安全验证,主要验证产品是否满足所有规定的安全要求,最后一步是发布和部署后期,包括发布测试和发布后的产品支持。
英特尔还举办了“安全黑客马拉松”(HaT),让员工学会像黑客一样思考。该活动把产品专家和安全专家聚集在一起,让员工接受持续的培训和实践经验。英特尔在2022年举办了118场HaT活动。英特尔的安全研究团队目前遍布10个国家,有80名研究人员。
英格尔公司首席执行官Pat Gelsinger在报告中表示:“产品的安全性是我们最重要的优先事项之一,我们努力设计、制造和销售全球最安全的技术产品,不断创新和增强我们产品的安全能力。”
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。