周三,Web 基础设施提供商 Cloudflare 宣布推出一项名为"AI Labyrinth"的新功能,旨在通过向爬虫提供 AI 生成的虚假内容来对抗未经授权的 AI 数据抓取。该工具试图阻止那些未经许可爬取网站以收集训练数据的 AI 公司,这些数据用于训练支持 ChatGPT 等 AI 助手的大语言模型。
Cloudflare 成立于 2009 年,最为人所知的是为网站提供基础设施和安全服务的公司,特别是在防御分布式拒绝服务 (DDoS) 攻击和其他恶意流量方面。
与简单地封锁爬虫不同,Cloudflare 的新系统将它们引入一个看似真实但实际上毫不相关的页面"迷宫"中,浪费爬虫的计算资源。这种方法与大多数网站保护服务使用的标准封锁防御策略有明显不同。Cloudflare 表示,有时候封锁爬虫会适得其反,因为这会提醒爬虫操作者他们已被发现。
Cloudflare 写道:"当我们检测到未经授权的爬取行为时,我们不会封锁请求,而是会链接到一系列 AI 生成的页面,这些页面看起来足够真实,能够诱使爬虫遍历它们。但虽然这些内容看起来很真实,却并非我们正在保护的网站的实际内容,因此爬虫会浪费时间和资源。"
该公司表示,提供给爬虫的内容故意与被爬取的网站无关,但都是经过精心筛选或使用真实科学事实生成的内容——例如关于生物学、物理学或数学的中性信息——以避免传播错误信息(不过,这种方法是否能有效防止错误信息传播仍有待证实)。Cloudflare 使用其商业平台 Workers AI 服务来生成这些内容。
Cloudflare 将这些陷阱页面和链接设计成对普通访问者不可见且无法访问,这样浏览网页的人就不会意外遇到它们。
更智能的蜜罐
AI Labyrinth 作为 Cloudflare 所说的"下一代蜜罐"发挥作用。传统蜜罐是人类访问者看不到但解析 HTML 代码的爬虫可能会跟随的隐形链接。但 Cloudflare 表示,现代爬虫已经变得善于发现这些简单的陷阱,因此需要更复杂的欺骗手段。这些虚假链接包含适当的元指令,可以防止搜索引擎索引,同时对数据抓取爬虫保持吸引力。
"没有真实的人会在 AI 生成的无意义内容迷宫中深入点击四个链接,"Cloudflare 解释道。"任何这样做的访问者很可能是爬虫,因此这为我们提供了一个全新的工具来识别和标记恶意爬虫。"
这种识别会形成机器学习反馈循环——从 AI Labyrinth 收集的数据用于持续增强 Cloudflare 网络中的爬虫检测能力,随着时间推移不断改进客户保护。任何 Cloudflare 计划的客户——即使是免费用户——都可以通过仪表板设置中的一个开关轻松启用此功能。
日益严重的问题
Cloudflare 的 AI Labyrinth 加入了旨在对抗激进 AI 网络爬虫的工具阵营。今年 1 月,我们报道了"Nepenthes",这款软件同样将 AI 爬虫引入虚假内容的迷宫中。两种方法都共享浪费爬虫资源而不是简单封锁的核心理念。然而,虽然 Nepenthes 的匿名创建者将其描述为旨在将爬虫困住数月的"激进恶意软件",但 Cloudflare 将其工具定位为可以在其商业服务中轻松启用的合法安全功能。
根据 Cloudflare 的数据以及我们从各种来源听到的轶事报告,AI 爬虫在网络上的规模似乎相当可观。该公司表示,AI 爬虫每天向其网络发送超过 500 亿个请求,占其处理的所有网络流量的近 1%。许多爬虫在未经网站所有者许可的情况下收集网站数据来训练大语言模型,这种做法已引发内容创作者和出版商提起多起诉讼。
这项技术代表了 AI 的一个有趣的防御应用,保护网站所有者和创作者而不是威胁他们的知识产权。然而,目前尚不清楚 AI 爬虫能多快适应并避开这些陷阱,这可能迫使 Cloudflare 增加其欺骗策略的复杂性。此外,浪费 AI 公司的资源可能不会让那些批评运行 AI 模型所需能源和环境成本的人感到满意。
Cloudflare 将此描述为"第一次迭代",使用 AI 防御爬虫。未来计划包括使虚假内容更难被检测,并使虚假页面更无缝地集成到网站结构中。网站与数据抓取者之间的猫鼠游戏仍在继续,而 AI 现在在这场战斗的双方都得到了应用。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。