周三,AI安全公司Irregular宣布获得8000万美元新一轮融资,由红杉资本和Redpoint Ventures领投,Wiz首席执行官Assaf Rappaport参投。据接近交易的消息人士透露,此轮融资对Irregular的估值为4.5亿美元。
"我们认为,很快大量经济活动将来自人与AI的交互以及AI与AI之间的交互,"联合创始人Dan Lahav告诉TechCrunch,"这将在多个层面打破现有的安全体系。"
Irregular前身为Pattern Labs,已经是AI评估领域的重要参与者。该公司的研究成果被引用于Claude 3.7 Sonnet以及OpenAI的o3和o4-mini模型的安全评估中。更广泛地说,该公司用于评估模型漏洞检测能力的框架(名为SOLVE)在行业内得到广泛应用。
虽然Irregular在现有模型风险方面已做了大量工作,但公司此次融资的目标更加宏大:在新兴风险和行为在现实中出现之前就能发现它们。公司构建了一套复杂的模拟环境系统,能够在模型发布前进行深入测试。
"我们建立了复杂的网络模拟环境,让AI同时扮演攻击者和防御者的角色,"联合创始人Omer Nevo说道。"所以当新模型出现时,我们可以看到防御在哪些方面有效,在哪些方面失效。"
随着前沿模型带来的潜在风险不断显现,安全已成为AI行业高度关注的焦点。OpenAI在今年夏天全面改革了内部安全措施,以防范潜在的企业间谍活动。
与此同时,AI模型在发现软件漏洞方面的能力越来越强——这种能力对攻击者和防御者都具有重大意义。
对于Irregular的创始人来说,这只是大语言模型能力不断增强所带来的众多安全挑战中的第一个。
"如果前沿实验室的目标是创造越来越复杂和强大的模型,那么我们的目标就是确保这些模型的安全,"Lahav说道。"但这是一个移动的目标,所以未来本质上还有更多、更多、更多的工作要做。"
Q&A
Q1:Irregular是什么公司?主要做什么业务?
A:Irregular是一家AI安全公司,前身为Pattern Labs,专注于AI模型的安全评估和防护。该公司已是AI评估领域的重要参与者,其研究成果被引用于多个知名模型的安全评估中,并开发了广泛应用的漏洞检测能力评估框架SOLVE。
Q2:Irregular如何测试AI模型的安全性?
A:Irregular构建了复杂的模拟环境系统,能够在模型发布前进行深入测试。他们建立了复杂的网络模拟环境,让AI同时扮演攻击者和防御者的角色,通过这种方式测试新模型的防御能力,发现潜在的安全漏洞和风险。
Q3:为什么AI安全变得如此重要?
A:随着前沿AI模型能力不断增强,带来的潜在风险也在不断显现。AI模型在发现软件漏洞方面越来越强,这对攻击者和防御者都具有重大意义。未来大量经济活动将涉及人与AI以及AI之间的交互,这将在多个层面对现有安全体系构成挑战。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。