大多数组织都认为加密数据是安全的。
然而,许多攻击者已经在为未来做准备,那时今天的加密技术将可能被破解。他们不是现在就试图解密信息,而是收集加密数据并存储起来,以便日后使用量子计算机进行解密。
这种被称为"现在收集,以后解密"的策略意味着今天传输的敏感数据可能在数年后量子计算能力成熟时变得可读。
想要了解这种风险以及如何做好准备的安全领导者可以在即将举行的后量子密码学最佳实践网络研讨会中详细探讨这个问题,专家将解释组织如何在量子解密成为可能之前开始保护数据的实用方法。
量子计算正在快速发展,大多数现代加密算法(如RSA和ECC)不会永远保持安全。
对于那些必须将数据保密多年的组织——金融记录、知识产权、政府通信——等待不是一个选择。
目前出现的一种实用方法是混合密码学,它将传统加密与量子抗性算法(如ML-KEM)相结合。这使组织能够在不破坏现有系统的情况下加强安全性。
未来就绪安全网络研讨会将解释混合密码学在实际环境中的工作原理,以及组织如何开始过渡到量子安全保护。
为量子威胁做准备的组织正专注于几个关键步骤:
识别必须长期保护的敏感数据
了解加密在各个系统中的使用位置
开始采用混合密码学策略
保持对加密算法和合规需求的可见性
同时,安全团队必须仍然检查加密流量并在其网络中执行策略。现代零信任架构在维护这种控制方面发挥着重要作用。
这些策略以及Zscaler等平台如何实施它们,将在专为IT、安全和网络领导者设计的现场网络研讨会中进行讨论。
本次会议将涵盖:
"现在收集,以后解密"攻击日益增长的风险
ML-KEM混合加密如何帮助组织安全过渡
后量子流量检查如何实现大规模策略执行
在量子时代保护敏感数据的最佳实践
量子计算将重塑网络安全。提早开始准备的组织将更好地保护其最关键的数据。
加入网络研讨会,学习如何在威胁变得紧迫之前构建实用的量子就绪安全策略。
Q&A
Q1:什么是"现在收集,以后解密"攻击策略?
A:"现在收集,以后解密"是攻击者采用的一种策略,他们不是现在就试图破解加密数据,而是收集并存储当前的加密数据,等待未来量子计算机成熟后再进行解密。这意味着今天看似安全的加密数据可能在未来几年变得可读。
Q2:混合密码学是如何工作的?
A:混合密码学是将传统加密技术与量子抗性算法(如ML-KEM)相结合的方法。这种approach使组织能够在不破坏现有系统的情况下加强安全性,为向完全量子安全的过渡提供了一个实用的路径。
Q3:组织应该如何为量子威胁做准备?
A:组织应该重点关注几个关键步骤:首先识别必须长期保护的敏感数据,了解加密技术在各个系统中的使用情况,开始采用混合密码学策略,并保持对加密算法和合规需求的可见性。同时要确保安全团队能够检查加密流量并执行网络策略。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。