Daniel Stenberg(curl 项目的原作者和负责人)本周在 LinkedIn 上写道:“达到了一个阈值。我们实际上正受到 DDoS 攻击。如果可能的话,我们本来会对这种浪费我们时间的行为收费。”
Curl( 在某些领域称为 cURL )于 2023 年迎来 25 周年,作为与互联网资源交互的重要命令行工具和库,该开源项目通过多种渠道接收 Bug 报告和安全问题,其中包括 HackerOne——一项帮助企业管理漏洞报告及赏金计划的服务。近年来,HackerOne 积极借助 AI 工具,其主页上写道:“One platform, dual force: Human minds + AI power。”
Stenberg 表示,他已经“受够了”,并坚决“制止这种疯狂”,建议对每一份涉嫌由 AI 生成的 HackerOne 报告,都要求报告者验证是否曾使用 AI 来发现问题或生成报告。如果一份报告被认定为“AI 垃圾”,该报告者将会被禁止使用该平台。他写道:“我们至今还没有见过任何借助 AI 辅助下完成的有效安全报告。”
Stenberg 提到,一份 5 月 4 日的报告“把我逼到了极限”,该报告提出利用 HTTP/3 协议栈中流依赖循环的问题来实施“新型利用”。流依赖处理不当,即程序的某一部分等待另一部分的输出,可能导致恶意数据注入、竞态条件、程序崩溃及其他问题。该报告声称,这可能使支持 HTTP/3 的 curl 面临包括远程代码执行在内的漏洞风险。
然而,正如 curl 团队指出的那样,提交的“恶意服务器设置”补丁文件并不适用于相关 Python 工具的最新版本。当被问及此事时,原始提交者以一种奇怪的提示式方式回应,回答了 curl 团队并未提出的问题( What is a Cyclic Dependency? )并附上了关于如何使用 git 工具应用新补丁的基本指令。该提交者还没有提供所要求的新补丁文件,引用了基础库中不存在的函数,并提出了针对除 curl 之外其它工具的加固建议。
更多工具以打击这种行为 在接受 Ars 采访时,Stenberg 表示他对帖子(截至周三早晨已获得 200 条评论和近 400 次转发)广为传播感到高兴,并说:“我非常高兴这个问题得到了关注,也许我们可以对此做些什么,同时向公众普及这就是现状。大语言模型无法发现安全问题,至少不像它们在这里被使用的那样。”
Stenberg 透露,本周已出现四份此类明显误导、显然由 AI 生成的漏洞报告,这些报告似乎意在获取声誉或赏金资金。他说:“一个明显的特征是,报告总是写得非常得体,措辞友好,英语完美且礼貌,并配有清晰的要点……普通人在首次撰写报告时从不会这样。”
有些 AI 报告比其他的更容易被识别。Stenberg 表示,其中一位报告者不小心将他们的提示语直接粘贴进了报告,结尾写道:“and make it sound alarming.”
Stenberg 称他“之前就曾就此问题与 HackerOne 进行了沟通”,本周他再次联系了该平台。“我希望他们能采取更强硬的措施予以应对。我希望他们能协助改善与 AI 工具相关的基础设施,并为我们提供更多打击这种行为的工具。”
在帖子评论中,Stenberg 与开源安全公司 XOR 的 Tobias Heldt 互相讨论,建议漏洞赏金计划可以利用“现有的网络和基础设施”。Heldt 表示,让安全记者缴纳保证金以审查报告,可能是一种过滤信号、降低噪音的方式。在其他地方,Stenberg 较为悲观看待这一趋势,认为尽管 AI 生成的报告“还没有把我们淹没”,但未来趋势并不乐观。
Stenberg 曾在他自己的博客中讨论过 AI 生成的漏洞报告,详细说明了这些报告的特征以及常见错误。Python 软件基金会的安全开发驻场专家 Seth Larson 也补充了 Stenberg 的发现,提供了自己的实例及建议,正如 The Register 所报道的那样。
Larson 在 12 月写道:“如果这种情况只在我能看到的少部分项目中发生,那么我怀疑这种情况在整个开源项目中已经大规模存在。这是一个非常令人担忧的趋势。”
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
武汉大学研究团队提出DITING网络小说翻译评估框架,首次系统评估大型语言模型在网络小说翻译方面的表现。该研究构建了六维评估体系和AgentEval多智能体评估方法,发现中国训练的模型在文化理解方面具有优势,DeepSeek-V3表现最佳。研究揭示了AI翻译在文化适应和创意表达方面的挑战,为未来发展指明方向。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
参数实验室等机构联合发布的Dr.LLM技术,通过为大型语言模型配备智能路由器,让AI能根据问题复杂度动态选择计算路径。该系统仅用4000个训练样本和极少参数,就实现了准确率提升3.4%同时节省计算资源的突破,在多个任务上表现出色且具有强泛化能力,为AI效率优化开辟新方向。