尽管密码无处不在,但它们并不是万无一失的,也不能单独保护您的在线身份。根据 Verizon 的数据,过去十年中报告的近三分之一的数据泄露事件都是由凭据被盗造成的,其中包括一些史上最大规模的数据泄露事件。
相反,业界普遍认为通行密钥是替代密码最突出的解决方案。超过 150 亿个在线账户可以使用通行密钥,包括 Amazon、Apple、Google 和 Microsoft 在内的科技巨头都在共同推广通行密钥的采用。
但由于通行密钥缺乏可移植性且操作普遍笨重,用户仍然对其望而却步。
网络安全创业公司 Hawcx 旨在通过其新的无密码认证技术解决通行密钥带来的一些困扰。该技术保留了通行密钥的优点,同时去除了其局限性。
正如 Ars Technica 的 Dan Goodin 所指出的,用户在账户上设置通行密钥时会觉得繁琐,在多个设备间使用通行密钥登录时也会遇到挑战。虽然通行密钥无疑比密码提供更好的安全性,但对于大规模使用通行密钥的企业来说,账户锁定和恢复可能会带来高昂的成本。
Hawcx 由在 Adobe、Google 和 New Relic 工作了近二十年的 Riya Shanmugam,以及首席技术官 Selva Kumaraswamy 和首席科学家 Ravi Ramaraju 于 2023 年共同创立。该公司表示,他们提供了一个平台无关的解决方案,开发者只需添加五行代码就能启用其无密码技术。
Hawcx 表示,其解决方案不依赖于从设备传输或存储私钥 (如通行密钥那样)。Shanmugam 告诉 TechCrunch,Hawcx 会在用户每次登录时通过加密方式生成私钥。
由于生成的私钥不会存储在用户设备上,Hawcx 表示其技术可以在不支持典型通行密钥设置的老旧设备上运行。
"从根本上说,我们并不是在重新发明轮子,"Shanmugam 告诉 TechCrunch。
举个例子,如果用户从一个设备切换到另一个设备,Hawcx 的解决方案会询问他们是否要在账户上注册新设备,并验证用户的身份以允许登录。
然而,在这种情况下,该解决方案不会创建另一个存储在新设备或云服务中的私钥——这与典型的通行密钥设置不同,后者要么在新硬件上生成并存储新的私钥,要么使用旧设备进行验证,或通过云服务同步。
"没有人在挑战基础本身,"Shanmugam 在谈到数字身份管理领域的竞争时说。"我们挑战的是基础本身。我们不是在通行密钥协议的基础上进行构建。我们认为这个协议对用户、企业和开发者来说都有着巨大的限制,我们可以让它变得更好。"
Hawcx 已申请专利,但其技术尚未被公司部署或经过第三方验证,这可能会影响对其服务的信任。
尽管如此,Hawcx 已在由 Engineering Capital 领投、Boldcap 参投的种子轮融资中筹集了 300 万美元,用于加速产品开发和市场推广。
Shanmugam 告诉 TechCrunch,该创业公司正在与大型银行和游戏公司洽谈,计划在未来几周内开始试点,这些试点将持续三到六个月,面向有限用户群。该公司还计划让斯坦福大学的"几位密码学专家"对这项技术进行验证。
"随着我们推出通行密钥,采用率很低。对我来说很明显,尽管通行密钥很好,解决了安全问题,但可用性问题仍然存在,"ADP 消费者身份总监 Tushar Phondge 告诉 TechCrunch。
Phondge 看好 Hawcx 的技术,并准备在 ADP 部署试点,测试它是否能解决通行密钥带来的问题,包括设备依赖性和核心系统锁定。
最终,Shanmugam 表示,Hawcx 旨在随着时间推移成为企业的统一认证平台,并与不同参与者合作,整合文档验证、实时视频验证甚至背景调查等服务。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。