随着全球智能手机用户数量突破 30 亿大关,移动厂商大力开展技术创新以改善设备。当今市场增长迅速,竞争激烈,厂商通常依赖高通等第三方生产手机软硬件。
高通提供广泛的可嵌入到设备中的芯片,40% 以上的手机都使用高通芯片,包括谷歌、三星、LG、小米和 OnePlus 的高端手机。2020 年 8 月,Check Point Research (CPR) 在高通 Snapdragon DSP(数字信号处理器)芯片中发现了 400 多个漏洞,这些漏洞对手机的可用性构成了巨大威胁。
Check Point公司研究的初衷是增强厂商与用户对漏洞相关潜在风险的认识。因此,在受影响的移动厂商找到规避上述潜在风险的全面解决方案之后,研究团队再发布完整的技术详情。CPR 将与相关政府机构和移动厂商合作,帮助他们提高了手机安全性。
此次发现的新漏洞位于高通移动基站调制解调器 (MSM) 上,该系列片上系统(包括 5G MSM)内嵌在广泛的移动设备中。5G 是继 4G/LTE 之后的下一代移动技术标准。自 2019 年以来,世界各国都在大力开展 5G 基础设施建设。预计到 2024 年,全球 5G 用户数量将达到 19 亿。
什么是 MSM?
自 20 世纪 90 年代初以来,高通公司便一直为高端手机设计 MSM。它支持 4G LTE 和高清录像等高级特性。MSM 一直并将继续是安全研究人员和网络犯罪分子的重点目标。黑客始终想方设法远程攻击移动设备,例如通过发送短消息或精心设计的无线数据包与设备进行通信并控制设备。利用这些第三代合作伙伴计划 (3GPP) 技术并不是入侵 MSM 的唯一切入点。
Android 也能够通过 Qualcomm MSM 接口 (QMI) 与 MSM 芯片处理器进行通信,QMI 是一种专有协议,支持 MSM 中的软件组件与设备上的其他外围子系统(例如摄像头和指纹扫描仪)进行通信。Counterpoint Technology Market Research 调查显示,全球 30% 的手机都采用了 QMI。然而,很少有人知道它还是一种潜在的攻击向量。
利用 MSM 数据服务
CPR 发现,如果安全研究人员想要通过调制解调器调试器查找最新的 5G 代码,最简单的方法是通过 QMI 利用 MSM 数据服务,网络犯罪分子当然也可以这样做。在调查过程中,我们在调制解调器数据服务中发现了一个可用于控制调制解调器的漏洞,并通过应用处理器动态修复了该漏洞。
这意味着攻击者可以利用此漏洞从 Android 向调制解调器注入恶意代码,从而窃取设备用户的通话记录和短消息,以及监听设备用户的对话。黑客还可以利用此漏洞解锁设备的 SIM 卡,从而解除服务厂商对其施加的限制。
移动芯片研究的重大飞跃
CPR 认为,这项研究有望促使移动芯片研究热点领域取得飞跃发展。我们希望此漏洞的发现将能够减轻当今安全研究人员检查调制解调器代码的沉重负担。
CPR 负责任地向高通公司披露了此次调查发现的信息,随后高通公司确认了该漏洞,将其定义为高危漏洞(编号为 CVE-2020-11292),并通知了相关设备厂商。
给组织和手机用户的建议
移动设备有着不同于传统端点的威胁面。移动设备防护需遵循以下最佳安全实践:
Check Point 强烈建议组织使用移动安全解决方案保护移动设备上的企业数据。Check Point Harmony Mobile 可提供实时威胁情报和移动威胁可视性,以防它们对业务造成影响,同时也可针对本文提到的高通漏洞风险提供全面防护。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。