一个名为 Crogl 的初创公司周四推出了其在 IT 领域的 AI 代理产品:一款针对网络安全研究人员的自主助手,可帮助他们分析每天数千条网络警报,以发现并修复实际的安全事件。据 Crogl 首席执行官兼联合创始人 Monzy Merza 称,这款助手被形容为研究人员的"钢铁侠战衣",目前已悄然部署在多家大型企业和其他大型组织中。随着今天正式结束私有测试阶段,该公司同时宣布获得 3000 万美元融资。
这 3000 万美元融资分两部分:由 Menlo Ventures 领投的 2500 万美元 A 轮融资,以及此前由 Tola Capital 领投的 500 万美元种子轮融资。总部位于新墨西哥州阿尔伯克基的 Crogl 将利用这笔资金继续开发产品并扩大客户群。
目前,安全工具的数量已达数百种,包括那些旨在帮助解析和修复现有安全软件产生的大量潜在问题警报的工具。有时感觉安全工具的数量几乎和安全警报一样多。然而,Crogl 与众不同,部分原因在于最初构思这个想法的人。
Merza 在安全行业有着丰富而有趣的背景。他毕业后在美国政府的 Sandia 原子研究实验室从事安全工作。后来他加入 Splunk,建立并领导其安全业务。之后他转投 Databricks 做同样的工作。
当 Merza 开始考虑创业时,他没有直接创办公司,而是选择回到行业,在汇丰银行工作,以从最终用户的角度了解痛点。积累了这些经验后,他邀请了在 Splunk 共事多年的同事 David Dorsey (现任 Crogl 的 CTO) 一起创业。
这正好是两年前的事,过去一年他们一直在私有测试阶段积累客户群。
据 Merza 向我解释,Crogl 这个名字是由三个不同的词和理念组合而成。Cronus (克洛诺斯,泰坦之王和时间之神) 构成了名字的前三个字母。'g' 来自 gnosis,意为知识或意识。最后的 'l' 代表逻辑。从某种意义上说,这些都概括了 Crogl 这家初创公司的目标。
Merza 认为问题的关键在于,运营团队中的安全分析师每天最多只能查看和解决约 20 多个不同的安全警报,但在同一时期他们可能会收到多达 4,500 个警报。
在他看来,到目前为止开发的工具无法像人类那样有效地评估警报,部分原因是它们解决问题的方式不对。
他和 Dorsey 观察到,安全主管通常喜欢他们的团队看到大量警报,因为根据强化学习原理,这意味着他们在处理每个警报时都能获得更多经验和理解。
当然,这也是不可持续的,这就是迄今为止推动许多安全产品发展的原因。"安全行业一直在告诉人们要减少警报数量,"Merza 说。"那么,如果每个警报实际上都是一个乘数,而安全团队通过分析他们想要的任何内容而变得更加强大,会怎样呢?"
这正是 Crogl 试图用其方法解决的问题。该初创公司借助大数据和驱动大语言模型的超大参数理念,构建了 Merza 所说的"知识引擎"来驱动其平台 (这里可以理解为"大型安全模型")。该平台不仅标记可疑活动,还在学习更多关于什么信号可能构成可疑活动。关键是,它还允许研究人员使用自然语言 (如果他们愿意) 查询所有警报,以提取和理解趋势并完成更多工作。
随着时间推移,Crogl 有潜力处理更多警报以外的任务 — 例如,修复就是一个很明显的领域,Menlo 合伙人、该公司投资负责人 Tim Tully 指出。
Tully 与 Crogl 团队的渊源由来已久,包括创始成员、曾担任 Splunk 首席架构师等重要职务的 Brad Lovering — 他曾是 Splunk 的 CTO,负责监督他们所有工作。
"我知道他们有能力建造什么。我知道他们很了解这个领域。所以,这就像是口中的鱼钩一样,就是团队本身。从风投的角度来看,拥有如此丰富的经验是相当罕见的,"他说。他补充说,他错过了种子轮投资的机会,后来不断听到关于这个产品的消息,就想"够了"。他飞到阿尔伯克基,亲自看了演示,这就确定了交易。"感觉这个产品就像是 Monzy 的安全思维在解决问题方式上的映射。"
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。