生成式 AI 极大地扩展了黑客和其他不法分子可用的工具箱。从伪造 CEO 到制作虚假收据,这些都已成为可能。
作为最大的生成式 AI 创业公司,OpenAI 对此深有体会。如今,它刚刚投资了另一家帮助企业抵御此类攻击的 AI 创业公司。
总部位于纽约的 Adaptive Security 周三宣布完成 4300 万美元 A 轮融资,由 OpenAI 创业基金和 Andreessen Horowitz 共同领投。OpenAI 向 TechCrunch 确认,这是其首次投资网络安全创业公司。
Adaptive Security 通过模拟 AI 生成的"黑客攻击"来训练员工识别这些威胁。你可能会接到一个声称是 CTO 要求验证码的电话。这并非真实的 CTO,而是 Adaptive Security 生成的模拟内容。
Adaptive Security 的平台不仅可以模拟电话,还包括短信和电子邮件,同时评估公司最容易受攻击的环节,并培训员工识别风险。
该创业公司专注于那些需要人为操作才能得逞的黑客攻击,比如点击恶意链接。这类"社会工程学"攻击虽然基础,却可能造成巨大损失——例如 Axie Infinity 在 2022 年就因一个针对其开发人员的虚假工作邀请损失了超过 6 亿美元。
联合创始人兼 CEO Brian Long 告诉 TechCrunch,AI 工具使社会工程学攻击变得比以往更容易。Adaptive 于 2023 年成立,目前已拥有超过 100 个客户,Long 表示客户的积极反馈帮助吸引了 OpenAI 的投资。
值得一提的是,Long 是一位经验丰富的企业家,此前已有两次成功经历:移动广告创业公司 TapCommerce 在 2014 年被 Twitter 收购 (据报道超过 1 亿美元),以及广告科技公司 Attentive,根据其投资者称,该公司在 2021 年估值超过 100 亿美元。
Long 向 TechCrunch 表示,Adaptive Security 将主要利用这笔最新融资招聘工程师来开发产品,并在与不法分子的 AI "军备竞赛"中保持优势。
Adaptive Security 加入了众多致力于应对 AI 威胁激增的网络安全创业公司行列。据 Forbes 报道,Cyberhaven 刚刚以 10 亿美元估值融资 1 亿美元,用于防止员工在 ChatGPT 等工具中泄露敏感信息。还有 Snyk,部分归功于不安全的 AI 生成代码的增加,推动其年度经常性收入超过 3 亿美元。深度伪造检测创业公司 GetReal 上个月也筹集了 1750 万美元。
随着 AI 威胁变得越来越复杂,Long 为担心声音被黑客克隆的公司员工提供了一个简单的建议:"删除你的语音信箱。"
好文章,需要你的鼓励
大多数用户只使用计算机预装的操作系统直到报废,很少尝试更换系统。即使使用较老版本的Windows或macOS,用户仍可通过开源软件获益。本文建议通过重新安装系统来提升性能,Mac用户可从苹果官方下载各版本系统安装包,PC用户则建议使用纯净版Windows 10 LTSC以获得更长支持周期。文章强调备份数据的重要性,并推荐升级内存和固态硬盘。对于老旧系统,应替换需要联网的内置应用以降低安全风险,定期进行系统维护清理。
新加坡南洋理工大学研究团队提出"棱镜假设",认为图像可像光谱一样分解为不同频率成分,低频承载语义信息,高频包含视觉细节。基于此开发的统一自编码系统UAE,通过频率域分解成功统一了图像理解和生成能力,在多项基准测试中超越现有方法,为构建真正统一的视觉AI系统提供了新思路,有望推动计算机视觉技术向更智能统一的方向发展。
微软杰出工程师Galen Hunt在LinkedIn上宣布,目标是到2030年消除微软所有C和C++代码。公司正结合AI和算法重写最大的代码库,目标是"1名工程师、1个月、100万行代码"。微软已构建强大的代码处理基础设施,利用AI代理和算法指导进行大规模代码修改。该项目旨在将微软最大的C和C++系统翻译为内存安全的Rust语言,以提高软件安全性并消除技术债务。
芝加哥伊利诺伊大学团队提出QuCo-RAG技术,通过检查AI训练数据统计信息而非内部信号来检测AI回答可靠性。该方法采用两阶段验证:预检查问题实体频率,运行时验证事实关联。实验显示准确率提升5-14个百分点,在多个模型上表现稳定,为AI可靠性检测提供了客观可验证的新方案。