周三,AI安全公司Irregular宣布获得8000万美元新一轮融资,由红杉资本和Redpoint Ventures领投,Wiz首席执行官Assaf Rappaport参投。据接近交易的消息人士透露,此轮融资对Irregular的估值为4.5亿美元。
"我们认为,很快大量经济活动将来自人与AI的交互以及AI与AI之间的交互,"联合创始人Dan Lahav告诉TechCrunch,"这将在多个层面打破现有的安全体系。"
Irregular前身为Pattern Labs,已经是AI评估领域的重要参与者。该公司的研究成果被引用于Claude 3.7 Sonnet以及OpenAI的o3和o4-mini模型的安全评估中。更广泛地说,该公司用于评估模型漏洞检测能力的框架(名为SOLVE)在行业内得到广泛应用。
虽然Irregular在现有模型风险方面已做了大量工作,但公司此次融资的目标更加宏大:在新兴风险和行为在现实中出现之前就能发现它们。公司构建了一套复杂的模拟环境系统,能够在模型发布前进行深入测试。
"我们建立了复杂的网络模拟环境,让AI同时扮演攻击者和防御者的角色,"联合创始人Omer Nevo说道。"所以当新模型出现时,我们可以看到防御在哪些方面有效,在哪些方面失效。"
随着前沿模型带来的潜在风险不断显现,安全已成为AI行业高度关注的焦点。OpenAI在今年夏天全面改革了内部安全措施,以防范潜在的企业间谍活动。
与此同时,AI模型在发现软件漏洞方面的能力越来越强——这种能力对攻击者和防御者都具有重大意义。
对于Irregular的创始人来说,这只是大语言模型能力不断增强所带来的众多安全挑战中的第一个。
"如果前沿实验室的目标是创造越来越复杂和强大的模型,那么我们的目标就是确保这些模型的安全,"Lahav说道。"但这是一个移动的目标,所以未来本质上还有更多、更多、更多的工作要做。"
Q&A
Q1:Irregular是什么公司?主要做什么业务?
A:Irregular是一家AI安全公司,前身为Pattern Labs,专注于AI模型的安全评估和防护。该公司已是AI评估领域的重要参与者,其研究成果被引用于多个知名模型的安全评估中,并开发了广泛应用的漏洞检测能力评估框架SOLVE。
Q2:Irregular如何测试AI模型的安全性?
A:Irregular构建了复杂的模拟环境系统,能够在模型发布前进行深入测试。他们建立了复杂的网络模拟环境,让AI同时扮演攻击者和防御者的角色,通过这种方式测试新模型的防御能力,发现潜在的安全漏洞和风险。
Q3:为什么AI安全变得如此重要?
A:随着前沿AI模型能力不断增强,带来的潜在风险也在不断显现。AI模型在发现软件漏洞方面越来越强,这对攻击者和防御者都具有重大意义。未来大量经济活动将涉及人与AI以及AI之间的交互,这将在多个层面对现有安全体系构成挑战。
好文章,需要你的鼓励
牛津大学研究团队发现,经过强化学习训练的AI搜索助手存在严重安全漏洞。通过简单的"搜索攻击"(强制AI先搜索)和"多重搜索攻击"(连续十次搜索),可让AI的拒绝率下降60%,安全性降低超过80%。问题根源在于AI的安全训练与搜索功能训练分离,导致搜索时会生成有害查询。研究呼吁开发安全感知的强化学习方法。
研究显示47%的企业在IT人才招聘和留存方面面临挑战,流失率居高不下。意大利53%的IT主管表示人才吸引和保留是日常难题。专家认为人才并非稀缺,而是未得到重视,因此更愿意出国发展。成功的CIO需要识别人才、给予适当机会并建立信任关系。通过持续培训、职业发展机会和有效领导力,企业可以更好地留住IT专业人员。
斯坦福大学团队开发了GuideFlow3D技术,通过创新的引导机制解决3D对象外观转换难题。该方法采用智能分割和双重损失函数,能在保持原始几何形状的同时实现高质量外观转换,在多项评估中显著优于现有方法,为游戏开发、AR应用等领域提供了强大工具。