Pegasus 利用零日漏洞——即苹果尚未发现的安全漏洞进行攻击,但 iPhone 制造商有其他应对方法...
苹果致力于检测 Pegasus 间谍软件
iOS 系统包含了专门的代码,即使在苹果还不知道具体攻击方法的情况下,也能检测出 iPhone 是否被间谍软件入侵。
当发现用户设备可能被感染间谍软件时,公司会向这些用户发出通知,同时努力查明被利用的安全漏洞。例如,去年夏天,苹果向近 100 个国家的 iPhone 用户发出了警告。
公司表示,虽然无法 100% 确定其判断,但有很高的置信度,并敦促收到消息的用户认真对待安全警告。
此类事件已有多次发生:
目前仅检测出一半被感染设备
然而,最新报告显示,苹果目前只能检测出约一半的被感染设备。
这项数据来自移动安全公司 iVerify,该公司去年推出了一款售价 1 美元的应用程序,允许用户扫描自己的手机并将结果发送给他们进行分析。一次性付费可以每月进行一次扫描。
这些扫描数据使该公司能够估算 Pegasus 感染的普遍程度,并检查有多少被确认感染的用户收到了苹果的通知。
加入这些新检测数据后,全球感染率降至每 1000 次扫描约 1.5 次 Pegasus 检测;然而,更大的样本量增加了我们对这一数据更接近真实感染率的信心,并让我们能够得出更有意思的结论。
例如,我们发现移动设备受损的情况已经超出了政治家和活动家等高价值目标的范围,实际上影响到了社会的各个层面。这些新确认的检测涉及 2021-2023 年间已知的 Pegasus 变体,包括针对政府、金融、物流和房地产行业用户的攻击。许多用户被多个变体攻击并被监视多年。
更重要的是,在约一半的案例中,目标用户并未收到苹果的威胁通知。如果这些用户没有使用 iVerify,他们将不会知道自己的设备已被入侵。
iVerify 表示,他们非常谨慎,只统计了那些 100% 确定被感染的手机。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。