生成式 AI 极大地扩展了黑客和其他不法分子可用的工具箱。从伪造 CEO 到制作虚假收据,这些都已成为可能。
作为最大的生成式 AI 创业公司,OpenAI 对此深有体会。如今,它刚刚投资了另一家帮助企业抵御此类攻击的 AI 创业公司。
总部位于纽约的 Adaptive Security 周三宣布完成 4300 万美元 A 轮融资,由 OpenAI 创业基金和 Andreessen Horowitz 共同领投。OpenAI 向 TechCrunch 确认,这是其首次投资网络安全创业公司。
Adaptive Security 通过模拟 AI 生成的"黑客攻击"来训练员工识别这些威胁。你可能会接到一个声称是 CTO 要求验证码的电话。这并非真实的 CTO,而是 Adaptive Security 生成的模拟内容。
Adaptive Security 的平台不仅可以模拟电话,还包括短信和电子邮件,同时评估公司最容易受攻击的环节,并培训员工识别风险。
该创业公司专注于那些需要人为操作才能得逞的黑客攻击,比如点击恶意链接。这类"社会工程学"攻击虽然基础,却可能造成巨大损失——例如 Axie Infinity 在 2022 年就因一个针对其开发人员的虚假工作邀请损失了超过 6 亿美元。
联合创始人兼 CEO Brian Long 告诉 TechCrunch,AI 工具使社会工程学攻击变得比以往更容易。Adaptive 于 2023 年成立,目前已拥有超过 100 个客户,Long 表示客户的积极反馈帮助吸引了 OpenAI 的投资。
值得一提的是,Long 是一位经验丰富的企业家,此前已有两次成功经历:移动广告创业公司 TapCommerce 在 2014 年被 Twitter 收购 (据报道超过 1 亿美元),以及广告科技公司 Attentive,根据其投资者称,该公司在 2021 年估值超过 100 亿美元。
Long 向 TechCrunch 表示,Adaptive Security 将主要利用这笔最新融资招聘工程师来开发产品,并在与不法分子的 AI "军备竞赛"中保持优势。
Adaptive Security 加入了众多致力于应对 AI 威胁激增的网络安全创业公司行列。据 Forbes 报道,Cyberhaven 刚刚以 10 亿美元估值融资 1 亿美元,用于防止员工在 ChatGPT 等工具中泄露敏感信息。还有 Snyk,部分归功于不安全的 AI 生成代码的增加,推动其年度经常性收入超过 3 亿美元。深度伪造检测创业公司 GetReal 上个月也筹集了 1750 万美元。
随着 AI 威胁变得越来越复杂,Long 为担心声音被黑客克隆的公司员工提供了一个简单的建议:"删除你的语音信箱。"
好文章,需要你的鼓励
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
实验室和真实使用测试显示,iPhone Air电池续航能够满足一整天的典型使用需求。在CNET进行的三小时视频流媒体压力测试中,iPhone Air仅消耗15%电量,表现与iPhone 15相当。在45分钟高强度使用测试中表现稍逊,但在实际日常使用场景下,用户反馈iPhone Air能够稳定支撑全天使用,有线充电速度也比较理想。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。