Cloudflare,作为全球最大的互联网基础设施公司之一,近日宣布推出了一款名为"AI 迷宫"的新工具,用于对抗未经许可爬取网站数据用于 AI 训练的爬虫机器人。该公司在一篇博客文章中表示,当检测到"不当的机器人行为"时,这个免费的选择性工具会将爬虫引导至一系列 AI 生成的诱饵页面链接中,从而"减缓、混淆并浪费"这些恶意行为者的资源。
长期以来,网站一直使用基于信任机制的 robots.txt 文件来授予或拒绝爬虫的访问权限,但包括 Anthropic 和 Perplexity AI 在内的知名 AI 公司都被指控无视这一规则。Cloudflare 表示,他们每天要处理超过 500 亿次网络爬虫请求。尽管公司已经具备识别和阻止恶意爬虫的工具,但这往往会促使攻击者改变策略,形成"永无止境的军备竞赛"。
Cloudflare 表示,AI 迷宫不是简单地阻止机器人,而是通过让它们处理与网站实际数据无关的内容来进行反击。该公司称这也是"新一代蜜罐",能够吸引 AI 爬虫不断深入追踪虚假页面的链接,而普通用户则不会这样做。这使得 Cloudflare 更容易将恶意机器人的特征录入黑名单,同时识别出原本无法发现的"新型机器人模式和特征"。根据博文介绍,这些链接对普通用户应该是不可见的。
您可以在 Cloudflare 的博客上了解更多关于 AI 迷宫的工作原理,以下是博文中的更多细节:
"我们发现,首先生成各种不同的主题,然后为每个主题创建内容,能够产生更加多样化和令人信服的结果。对我们来说,避免生成可能导致互联网上虚假信息传播的不准确内容非常重要,因此我们生成的内容都是真实的,并且与科学事实相关,只是与被爬取的网站内容无关且不具专有性。"
网站管理员可以通过进入其 Cloudflare 控制面板设置的机器人管理部分并开启相关功能来选择使用 AI 迷宫。该公司表示,这"只是利用生成式 AI 对抗机器人的第一步"。他们计划创建"完整的链接 URL 网络",使陷入其中的机器人难以识别出这些内容是虚假的。正如 Ars Technica 所指出的,AI 迷宫与 Nepenthes 工具类似,后者旨在将爬虫困在 AI 生成的垃圾数据地狱中长达"数月之久"。
好文章,需要你的鼓励
斯坦福大学研究团队开发了名为BrainSynth的AI系统,通过生成式AI技术创建解剖学上合理的3D大脑MRI影像。该项目由精神病学和行为科学教授Kilian Pohl博士主导,旨在通过AI生成的合成数据来研究大脑疾病的细微影响。研究显示,超过一半的合成MRI脑区域在解剖学上是合理的,能够准确编码年龄和性别等生物因素的影响,为神经科学研究提供了宝贵的数据资源。
香港大学和蚂蚁集团联合推出PromptCoT 2.0,这是一种让AI自动生成高质量训练题目的创新方法。通过"概念-思路-题目"的三步策略,AI能像老师备课一样先构思解题思路再出题,大幅提升了题目质量和训练效果。实验显示该方法在数学竞赛和编程任务上都取得了显著提升,为解决AI训练数据稀缺问题提供了新思路。
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
ETH苏黎世和迪士尼研究院联合开发的HiGS技术,通过巧妙利用AI绘画过程中的历史信息,实现了图像生成速度6-8倍提升的同时保持更高质量。这项即插即用的技术无需重新训练模型,在ImageNet数据集上创造新纪录,为AI图像生成领域带来重要突破,具有广泛的实际应用价值。