Cloudflare,作为全球最大的互联网基础设施公司之一,近日宣布推出了一款名为"AI 迷宫"的新工具,用于对抗未经许可爬取网站数据用于 AI 训练的爬虫机器人。该公司在一篇博客文章中表示,当检测到"不当的机器人行为"时,这个免费的选择性工具会将爬虫引导至一系列 AI 生成的诱饵页面链接中,从而"减缓、混淆并浪费"这些恶意行为者的资源。
长期以来,网站一直使用基于信任机制的 robots.txt 文件来授予或拒绝爬虫的访问权限,但包括 Anthropic 和 Perplexity AI 在内的知名 AI 公司都被指控无视这一规则。Cloudflare 表示,他们每天要处理超过 500 亿次网络爬虫请求。尽管公司已经具备识别和阻止恶意爬虫的工具,但这往往会促使攻击者改变策略,形成"永无止境的军备竞赛"。
Cloudflare 表示,AI 迷宫不是简单地阻止机器人,而是通过让它们处理与网站实际数据无关的内容来进行反击。该公司称这也是"新一代蜜罐",能够吸引 AI 爬虫不断深入追踪虚假页面的链接,而普通用户则不会这样做。这使得 Cloudflare 更容易将恶意机器人的特征录入黑名单,同时识别出原本无法发现的"新型机器人模式和特征"。根据博文介绍,这些链接对普通用户应该是不可见的。
您可以在 Cloudflare 的博客上了解更多关于 AI 迷宫的工作原理,以下是博文中的更多细节:
"我们发现,首先生成各种不同的主题,然后为每个主题创建内容,能够产生更加多样化和令人信服的结果。对我们来说,避免生成可能导致互联网上虚假信息传播的不准确内容非常重要,因此我们生成的内容都是真实的,并且与科学事实相关,只是与被爬取的网站内容无关且不具专有性。"
网站管理员可以通过进入其 Cloudflare 控制面板设置的机器人管理部分并开启相关功能来选择使用 AI 迷宫。该公司表示,这"只是利用生成式 AI 对抗机器人的第一步"。他们计划创建"完整的链接 URL 网络",使陷入其中的机器人难以识别出这些内容是虚假的。正如 Ars Technica 所指出的,AI 迷宫与 Nepenthes 工具类似,后者旨在将爬虫困在 AI 生成的垃圾数据地狱中长达"数月之久"。
好文章,需要你的鼓励
美国网络安全和基础设施安全局指示联邦机构修补影响思科ASA 5500-X系列防火墙设备的两个零日漏洞CVE-2025-20362和CVE-2025-20333。这些漏洞可绕过VPN身份验证并获取root访问权限,已被黑客积极利用。攻击与国家支持的ArcaneDoor黑客活动有关,黑客通过漏洞安装bootkit恶意软件并操控只读存储器实现持久化。思科已发布补丁,CISA要求机构清点易受攻击系统并在今日前完成修补。
康考迪亚大学研究团队通过对比混合量子-经典神经网络与传统模型在三个基准数据集上的表现,发现量子增强模型在准确率、训练速度和资源效率方面均显著优于传统方法。研究显示混合模型的优势随数据集复杂度提升而增强,在CIFAR100上准确率提升9.44%,训练速度提升5-12倍,且参数更少。该成果为实用化量子增强人工智能铺平道路。
TimeWave是一款功能全面的计时器应用,超越了苹果自带时钟应用的功能。它支持创建流式计时器,让用户可以设置连续的任务计时,帮助专注工作。应用采用简洁的黑白设计,融入了Liquid Glass元素。内置冥想、番茄工作法、20-20-20护眼等多种计时模式,支持实时活动显示和Siri快捷指令。免费版提供基础功能,高级版需付费订阅。
沙特KAUST大学团队开发了专门针对阿拉伯语的AI模型家族"Hala",通过创新的"翻译再调优"技术路线,将高质量英语指令数据转化为450万规模的阿拉伯语语料库,训练出350M到9B参数的多个模型。在阿拉伯语专项测试中,Hala在同规模模型中表现最佳,证明了语言专门化策略的有效性,为阿拉伯语AI发展和其他语言的专门化模型提供了可复制的技术方案。