Google 即将为所有用户提供端到端加密 (E2EE) 电子邮件服务,即使是非 Google Workspace 用户也可使用,而且声称这不会给 IT 管理员带来任何额外负担。
这被定位为安全/多用途互联网邮件扩展协议 (S/MIME) 的替代方案,S/MIME 通常被资源充足的受监管组织用于加密通信。
该协议的核心在于证书交换,Google 认为这对其他类型的组织来说是一个麻烦,尽管他们确实需要安全邮件,但很少有组织有动力去实施。
其工作原理是:企业 Gmail 用户可以向任何人发送由客户端加密支持的 E2EE 邮件。如果发送给其他 Gmail 用户(无论是企业用户还是个人用户),加密邮件功能无需额外配置即可使用。撰写窗口的界面会略有变化,顶部会显示一个醒目的蓝色横幅,上面写着:"新加密消息"。
如果 Gmail 用户向使用 Outlook 等其他邮件客户端的用户发送此类邮件,接收者会收到一封询问是否查看加密消息的邮件。点击链接后,接收者需要重新验证其邮件账户,通过受限制的 Gmail 账户获得临时访问权限来查看和回复加密邮件。
在这种情况下,初始的"是否查看?"邮件看起来类似于 Docs/Sheets/Pages 协作链接,这可能会引起网络钓鱼方面的担忧。Google 也考虑到了这一点,因此在链接上方有一个警告框,提醒接收者只有在完全信任发件人的情况下才点击链接。
事实上,根据 Google 自己的说法,整个过程类似于与组织外部人员共享 Workspace 文档。由于 IT 管理员可以要求接收者使用受限制的 Gmail 来查看加密消息,这实际上允许管理员使用策略控制接收者的访问权限,并确保数据不会存储在第三方服务器上。
如果 E2EE 邮件发送给已配置 S/MIME 的接收者,则没有实质性变化。Gmail 会像今天公告之前一样正常发送加密邮件。
Google 的 Johney Burke 和 Julien Duplant 在提前与 The Register 分享的博客中表示:"这一功能对 IT 团队和最终用户来说都只需要最少的努力,避免了传统 IT 解决方案的复杂性和不理想的用户体验,同时保持了增强的数据主权、隐私和安全控制。"
"我们正在分阶段推出这项功能,从今天开始进入 beta 阶段,可以向组织内的 Gmail 用户发送 E2EE 邮件。在接下来的几周内,用户将能够向任何 Gmail 收件箱发送 E2EE 邮件,今年晚些时候,将可以向任何电子邮件收件箱发送。"
在今天之前,除了 Google 的传输中 TLS 加密外,Gmail 用户保护邮件的方式仅限于启用机密模式,该模式禁止接收者转发、复制、打印或下载邮件,但不具备 E2EE 功能。还可以设置邮件在特定时间后过期,并要求输入短信验证码才能打开邮件。
这也适用于其他电子邮件平台,但实际的邮件内容会被替换为"是否查看?"类型的邮件,提示用户输入密码在浏览器中查看。
然而,使用机密模式并不意味着企业管理员无法查看消息内容,这与严格限制在发送者和接收者之间的 E2EE 不同。
如果 Google 的公告听起来很熟悉,那可能是因为您有 Microsoft 365 账户。从今年 1 月起,E5 客户就已经可以使用类似的选项,即 Microsoft Purview 消息加密。
它的运作方式完全相同。Outlook 之间的邮件正常工作,只是添加了 E2EE,而 Outlook 与 Gmail、Yahoo 或其他平台之间的通信通常涉及发送查看加密消息的链接。
在这些功能发布之前,注重安全的用户可以选择使用 Proton、Tuda 或其他加密电子邮件平台,但将其与企业账户一起用于日常工作可能会很繁琐。
除了 E2EE 邮件(IT 管理员可以根据需要将其设为所有最终用户的默认选项)外,Google 还为 Gmail 推出了其他功能,包括分类标签,这些标签会告知用户每封邮件的敏感度以及应如何处理。
这些分类标签还将用于 IT 管理员可以设置的新数据丢失防护规则,根据分配的标签自动处理邮件。
当然,如果没有 AI 元素,就不像是 2025 年的产品了。Gmail 现有的基于 AI/ML 的垃圾邮件和网络钓鱼检测器增加了威胁防护模型,以减少恶意邮件的漏网之鱼。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。