“在人工智能的浪潮中,我们不能以牺牲隐私为代价换取便利。”6 月 10 日Apple 在全球开发者大会上宣布了一个重大的 AI 举措——“Apple Intelligence”,证实了长期的传闻,即它将与 OpenAI 合作,将 ChatGPT 带入 iPhone。
OpenAI 的联合创始人之一埃隆·马斯克很快在 X 上做出回应,称由 ChatGPT 支持的 Apple AI 工具是“令人毛骨悚然的间谍软件”和“不可接受的安全违规行为”。他警告说:“如果 Apple 在操作系统层面集成 OpenAI,那么我的公司将禁止使用 Apple 设备。”
但在 AI 隐私问题受到关注之际,iPhone 制造商 Apple 表示,Apple Intelligence 提供了一种保护用户数据的新方式。该公司正在研究哪些核心任务可以在设备本地完成,以最大限度地保护隐私。
对于更复杂的请求,Apple 开发了一种称为“Private Cloud Compute (PCC)”的基于云的系统,运行在自己的服务器上。该公司称这是一种保护新兴 AI 时代隐私的创新方式。
Apple 软件工程高级副总裁克雷格·费德里吉称其战略是“AI 隐私的全新标准”。那么,Apple 的说法是否站得住脚?与包括三星 Galaxy 系列在内的设备上提供的“混合 AI”产品相比,Apple 的战略有何不同?
AI 与端到端加密
Digital Barriers 首席执行官扎克·多夫曼表示,通过 PCC,Apple 设计了一种全新的端到端 AI 架构,让用户的 iPhone 拥有私有云飞地扩展,从而可以更好地控制数据。Digital Barriers 是一家专注于实时监控视频存储和分析的公司。
在实践中,这意味着 Apple 可以掩盖 AI 提示的来源,并防止任何人(包括 Apple 本身)访问用户的数据。多夫曼说:“从理论上讲,这是云端 AI 实现端到端加密的最接近的方式。”
Inrupt 安全架构负责人布鲁斯·施奈尔表示,Apple 为其 AI 构建了一个“相当令人印象深刻的隐私系统”。他说:“Apple 的目标是让 AI 的使用——甚至是在云端——与手机的安全性一样安全。这是一个复杂的过程,但我认为他们做得相当不错。”
到目前为止,还没有任何其他解决方案能与之相提并论。在搭载 Google Android 和 Google Nano 系列的三星 Galaxy 设备上使用的“混合 AI”中,一些 AI 流程在本地处理,在必要时利用云端来实现更先进的功能。
GRC International Group 人工智能集团负责人卡姆登·伍尔文表示,其想法是尽可能提供隐私保护,同时提供强大的 AI 功能。“这意味着你甚至可以在中端智能手机上体验到一些相当复杂的 AI。”
但是,这种类型的混合 AI 处理仍可能存在风险,因为一些数据被发送到云服务器,而没有 Apple 通过其 PCC 提供的相同级别的问责制。“对于混合 AI 来说,一些数据必须离开设备并在其他地方处理,使其更容易受到拦截或滥用,”Open 技术研究所创始人兼总监里卡多·奥克莱波说。
然而,谷歌及其硬件合作伙伴认为,隐私和安全性是 Android AI 方法的主要关注点。三星电子安全团队负责人、移动业务副总裁 Justin Choi 表示,其混合 AI 为用户提供了“对数据的控制和无可妥协的隐私保护”。
Choi 解释说,云端处理的功能受到严格政策制约的服务器保护。他说:“我们在设备上的 AI 功能通过在设备本地执行任务来提供额外的安全性,并且不会依赖云服务器,既不存储设备数据,也不向云上传数据。”
谷歌表示,其数据中心采用了强大的安全措施,包括物理安全、访问控制和数据加密。该公司表示,当在云端处理 AI 请求时,数据将保留在安全的谷歌数据中心架构内,并且不会将用户信息发送给第三方。
同时,Choi 表示,Galaxy 的 AI 引擎不会使用来自设备上功能的用户数据进行训练。三星会通过其 Galaxy AI 符号清楚地表明哪些 AI 功能在设备上运行,并且智能手机制造商会添加水印以显示内容何时使用了生成式 AI。
该公司还引入了名为“高级智能设置”的新安全和隐私选项,让用户可以选择禁用基于云的 AI 功能。
谷歌表示,该公司“拥有保护用户数据隐私的悠久历史”,并补充说这适用于其在设备上和云端启用的 AI 功能。“对于敏感案例,例如筛选电话,我们使用设备上的模型,数据永远不会离开手机,”谷歌产品信任副总裁苏珊·弗雷告诉 WIRED。
弗雷描述了谷歌产品如何依赖其基于云的模型,以确保“消费者的信息,例如需要总结的敏感信息,永远不会被发送给第三方进行处理。”
她说:“我们一直致力于构建人们可以信任的 AI 功能,因为它们默认安全,设计时考虑了隐私,最重要的是,它们遵循了谷歌首创的负责任的 AI 原则。”
Apple 改变了对话
专家表示,Apple 的 AI 战略不仅仅是匹配“混合”的数据处理方法,它改变了对话的性质。多夫曼说:“每个人都期待这种设备内、隐私至上的推动,但 Apple 实际上做的是说,无论您在 AI 中做什么,或在哪里做——重要的是如何做。” 他认为这“很可能会定义智能手机 AI 领域的最佳实践。”
即便如此,Apple 还没有赢得 AI 隐私之战:与 OpenAI 的交易——Apple 不同寻常地向外部供应商开放其 iOS 生态系统——可能会损害其隐私声明。
Apple 反驳了马斯克关于与 OpenAI 的合作会损害 iPhone 安全性的说法,称“为访问 ChatGPT 的用户构建了隐私保护措施”。该公司表示,在查询被共享给 ChatGPT 之前,会要求用户许可,同时会模糊 IP 地址,并且 OpenAI 不会存储请求——但 ChatGPT 的数据使用政策仍然适用。
安全公司 ESET 的全球网络安全顾问杰克·摩尔表示,与另一家公司合作对 Apple 来说是一个“奇怪的举动”,但这一决定“不会轻易做出”。虽然确切的隐私影响尚不清楚,但他承认“双方都可能收集一些个人数据,并且这些数据可能被 OpenAI 分析。”
这意味着对于一些数据,“你只能遵守 OpenAI 的规则,”施奈尔说。“Apple 在向 OpenAI 发送查询时删除识别信息,但是许多查询中包含大量的识别信息。”
苹果和 OpenAI 之间的合作有可能“完全改变 AI 领域的问责制”,人工智能教授兼科技咨询公司 Wisdom Works Group 创始人安迪·帕多说。“这种合作伙伴关系将责任分散到多个实体,从而影响到如何为其互连系统内的成功和潜在失败分配责任。”
随着 AI 技术被集成到科技巨头的操作系统中,还需要考虑安全风险。至少在理论上,Apple Intelligence 是一个令人印象深刻的壮举,但该公司 的 AI 工具也创造了“一个前所未见的巨大攻击面”,多夫曼说。“它采用了一系列不同的安全创新,并将其结合到一个新的产品中以实现一个新的目的,因此,如果它起作用,它将是一个改变游戏规则的举措。但在它上线时,Apple 将需要管理一些问题。”
正因为如此,Apple 和谷歌都在鼓励安全研究人员寻找其 AI 解决方案中的漏洞。谷歌的安全 AI 框架让安全公司 Mandiant 测试了 AI 模型的防御能力。
Apple 的一位发言人提供了该公司关于 PCC 安全性论文和模型论文的链接,详细介绍了其对 AI 开发的“负责任”方法。 Apple 没有对 WIRED 关于其与 OpenAI 的合作引发的隐私问题或潜在安全风险的后续问题做出公开回应。
Apple 正在为 PCC 使用一种称为“可验证透明度”的模式。 Apple 在介绍 PCC 的一篇博客文章中说:“我们希望确保安全和隐私研究人员可以检查 Private Cloud Compute 软件、验证其功能并帮助识别问题——就像他们可以与 Apple 设备一样。” 为了实现这一点,Apple 正在向安全研究人员公开提供 PCC 每个生产版本的软件图像。
Apple Intelligence 将与即将推出的 iOS 18 软件更新一起集成到 ChatGPT 中,完整的功能套件将于今年秋天在 iPhone 16 上推出。你可以选择禁用此功能,但如果你想在任何设备上使用 AI 功能,最好考虑其隐私和安全影响。
具体到 iOS 和 Android AI,这取决于你信任谁。帕多建议评估操作系统在隐私功能、数据处理实践和透明度方面的整体权衡。帕多指出:“Apple 对隐私的强烈关注仍然是优先考虑数据安全性高于一切的用户的一个关键看点。”
好文章,需要你的鼓励
实验室和真实使用测试显示,iPhone Air电池续航能够满足一整天的典型使用需求。在CNET进行的三小时视频流媒体压力测试中,iPhone Air仅消耗15%电量,表现与iPhone 15相当。在45分钟高强度使用测试中表现稍逊,但在实际日常使用场景下,用户反馈iPhone Air能够稳定支撑全天使用,有线充电速度也比较理想。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。
苹果即将发布Apple TV 4K和HomePod mini 2两款产品更新。更值得期待的是三款全新产品:配备7英寸方形显示屏的HomePod Touch将搭载全新homeOS系统,支持Safari、音乐等应用及小组件功能,预计售价350美元;此外还有智能安全摄像头和视频门铃两款配件。这标志着苹果从依赖第三方HomeKit配件转向自主研发智能家居产品的重要战略转变。
UCL研究团队通过分析16万场AI对战数据发现,传统认为"平局代表AI实力相当"的观念完全错误。研究表明平局主要反映问题难度和客观性,而非AI能力对比。当忽略平局进行评分时,四种主流评分系统的预测准确率均提升1-3%。这项发现颠覆了现有AI评估理论,建议未来评分系统应考虑问题特征而非简单的平局语义。