由于人工智能模型训练对在线内容有着无止境的需求,网络爬虫机器人已经成为维基媒体社区无法承受的负担。
维基媒体基金会 (负责管理维基百科及类似社区项目) 的代表表示,自 2024 年 1 月以来,用于处理多媒体文件请求的带宽使用量增加了 50%。
维基媒体基金会的 Birgit Mueller、Chris Danis 和 Giuseppe Lavagetto 在一份公开帖子中解释道:"这种增长并非来自人类读者,而主要来自自动化程序,这些程序在抓取维基共享资源中的开放许可图片,用于训练 AI 模型。"
"我们的基础设施本是为了应对重大事件期间人类用户造成的突发流量高峰而建立的,但爬虫机器人产生的流量规模前所未有,带来了日益增长的风险和成本。"
据维基媒体人士透露,维基媒体基金会数据中心处理的最耗资源内容中,至少 65% 的流量是由机器人产生的,尽管这些软件代理仅占页面访问量的约 35%。
这是因为维基媒体基金会采用了缓存策略,将热门内容分发到全球各地的区域数据中心以提升性能。机器人访问页面时不考虑内容的热门程度,它们对冷门内容的请求意味着这些内容必须从核心数据中心获取,这会消耗更多计算资源。
正如维基媒体人士通过引用我们最近的相关报告所指出的,在过去一年左右的时间里,行为不当的机器人一直是开源项目计算基础设施运营者的普遍抱怨。
上个月,Git 托管服务 Sourcehut 公开批评了那些为 AI 公司疯狂抓取内容的网络爬虫。Diaspora 开发者 Dennis Schubert、维修网站 iFixit 以及 ReadTheDocs 等也都对激进的 AI 爬虫表示反对。
大多数网站都认识到为机器人查询提供带宽是经营成本的一部分,因为这些脚本化访问通过为搜索引擎建立索引,有助于在线内容更容易被发现。
但自从 ChatGPT 上线和生成式 AI 兴起以来,机器人变得更加肆无忌惮,大量抓取整个网站的内容用于训练 AI 模型。这些模型最终可能成为商业竞争对手,通过收费订阅或免费方式提供它们收集的聚合知识。这两种情况都可能减少对源网站的需求,或减少产生在线广告收入的搜索查询。
维基媒体基金会在其 2025/2026 年度规划文件的"基础设施负责任使用"部分中提出了一个目标:"在请求率方面将爬虫产生的流量减少 20%,在带宽使用方面减少 30%。"
该规划文件指出,虽然维基百科及其多媒体库维基共享资源对训练机器学习模型来说是无价之宝,但"我们必须优先考虑为谁提供这些资源,我们希望优先考虑人类使用,并优先支持维基媒体项目和贡献者使用我们有限的资源。"
除了网站可靠性工程师已经采取的针对性干预措施来封禁最恶劣的机器人外,如何实现这一目标仍有待探索。
由于对 AI 内容滥用性采集的担忧已存在一段时间,已经出现了许多用于阻止激进爬虫的工具。这些包括:数据投毒项目如 Glaze、Nightshade 和 ArtShield;以及基于网络的工具,包括 Kudurru、Nepenthes、AI Labyrinth 和 Anubis。
去年,当网络对 AI 爬虫的不满传到主要的 AI 机器人赞助商 (如 Google、OpenAI 和 Anthropic 等) 耳中时,他们做出了一些努力,通过应用 robots.txt 指令来提供防止 AI 爬虫访问网站的方法。
但这些存储在网站根目录供到访网络爬虫读取的指令并未得到普遍部署或遵守。而且,如果不使用通配符来覆盖所有可能性,这种可选的声明式防御协议也无法跟上仅需更改名称就能躲避封禁列表条目的步伐。网站运营者普遍反映,行为不当的机器人会将自己伪装成 Googlebot 或其他广泛容忍的爬虫,以避免被封禁。
例如,Wikipedia.org 的 robots.txt 文件并没有封禁来自 Google、OpenAI 或 Anthropic 的 AI 爬虫。它封禁了一些因贪婪抓取整个网站而被认为有问题的机器人,但未能包括主要商业 AI 公司的条目。
The Register 已就维基媒体基金会为何没有更全面地禁止 AI 爬虫一事向其询问。
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。