著名的Do Not Track(请勿追踪)设定,是在2009年就已经提上日程的,这个选项随后在过去几年中被加入到了所有主流的浏览器产品中,在选择该选项以后,浏览器就会向网站发出一个通知,要求网站不对用户的网页浏览行为做追踪。
今天,电子前线基金会(Electronic Frontier Foundation)发布了Do Not Track标准,一同合作参与发布此标准的还有Disconnect、Adblock、Medium、DuckDuckGo以及分析服务Mixpanel。
这个新标准是份文档——可免费转至自家网站。这份文档中提到对Do Not Track特性的支持,做到对那些选择了Do Not Track选项用户的尊重,并且需要解释服务中哪些数据会被追踪。
同时这份文档也要求那些采纳此标准的站点,确保第三方脚本,如广告、插件等坚持遵守Do Not Track策略,不会对用户做数据收集。
博客平台Medium先前就是首个完整执行了这项标准的站点,并且让用户知道其服务是根据其请求进行的。对这项标准有兴趣的同学,可以点击这里,查看这份文档每个部分的解释。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。