周三,AI安全公司Irregular宣布获得8000万美元新一轮融资,由红杉资本和Redpoint Ventures领投,Wiz首席执行官Assaf Rappaport参投。据接近交易的消息人士透露,此轮融资对Irregular的估值为4.5亿美元。
"我们认为,很快大量经济活动将来自人与AI的交互以及AI与AI之间的交互,"联合创始人Dan Lahav告诉TechCrunch,"这将在多个层面打破现有的安全体系。"
Irregular前身为Pattern Labs,已经是AI评估领域的重要参与者。该公司的研究成果被引用于Claude 3.7 Sonnet以及OpenAI的o3和o4-mini模型的安全评估中。更广泛地说,该公司用于评估模型漏洞检测能力的框架(名为SOLVE)在行业内得到广泛应用。
虽然Irregular在现有模型风险方面已做了大量工作,但公司此次融资的目标更加宏大:在新兴风险和行为在现实中出现之前就能发现它们。公司构建了一套复杂的模拟环境系统,能够在模型发布前进行深入测试。
"我们建立了复杂的网络模拟环境,让AI同时扮演攻击者和防御者的角色,"联合创始人Omer Nevo说道。"所以当新模型出现时,我们可以看到防御在哪些方面有效,在哪些方面失效。"
随着前沿模型带来的潜在风险不断显现,安全已成为AI行业高度关注的焦点。OpenAI在今年夏天全面改革了内部安全措施,以防范潜在的企业间谍活动。
与此同时,AI模型在发现软件漏洞方面的能力越来越强——这种能力对攻击者和防御者都具有重大意义。
对于Irregular的创始人来说,这只是大语言模型能力不断增强所带来的众多安全挑战中的第一个。
"如果前沿实验室的目标是创造越来越复杂和强大的模型,那么我们的目标就是确保这些模型的安全,"Lahav说道。"但这是一个移动的目标,所以未来本质上还有更多、更多、更多的工作要做。"
Q&A
Q1:Irregular是什么公司?主要做什么业务?
A:Irregular是一家AI安全公司,前身为Pattern Labs,专注于AI模型的安全评估和防护。该公司已是AI评估领域的重要参与者,其研究成果被引用于多个知名模型的安全评估中,并开发了广泛应用的漏洞检测能力评估框架SOLVE。
Q2:Irregular如何测试AI模型的安全性?
A:Irregular构建了复杂的模拟环境系统,能够在模型发布前进行深入测试。他们建立了复杂的网络模拟环境,让AI同时扮演攻击者和防御者的角色,通过这种方式测试新模型的防御能力,发现潜在的安全漏洞和风险。
Q3:为什么AI安全变得如此重要?
A:随着前沿AI模型能力不断增强,带来的潜在风险也在不断显现。AI模型在发现软件漏洞方面越来越强,这对攻击者和防御者都具有重大意义。未来大量经济活动将涉及人与AI以及AI之间的交互,这将在多个层面对现有安全体系构成挑战。
好文章,需要你的鼓励
Queen's大学研究团队提出结构化智能体软件工程框架SASE,重新定义人机协作模式。该框架将程序员角色从代码编写者转变为AI团队指挥者,建立双向咨询机制和标准化文档系统,解决AI编程中的质量控制难题,为软件工程向智能化协作时代转型提供系统性解决方案。
苹果在iOS 26公开发布两周后推出首个修复更新iOS 26.0.1,建议所有用户安装。由于重大版本发布通常伴随漏洞,许多用户此前选择安装iOS 18.7。尽管iOS 26经过数月测试,但更大用户基数能发现更多问题。新版本与iPhone 17等新机型同期发布,测试范围此前受限。预计苹果将继续发布后续修复版本。
西北工业大学与中山大学合作开发了首个超声专用AI视觉语言模型EchoVLM,通过收集15家医院20万病例和147万超声图像,采用专家混合架构,实现了比通用AI模型准确率提升10分以上的突破。该系统能自动生成超声报告、进行诊断分析和回答专业问题,为医生提供智能辅助,推动医疗AI向专业化发展。