Vivaldi 成为最新一个在产品中集成虚拟专用网络 (VPN) 选项的浏览器,与 Proton VPN 合作以提升用户隐私保护。
根据 Vivaldi 的说法,激活 VPN 将提供"真正的私密在线体验,没有监控,将 Proton VPN 经过实战检验的安全特性和严格的无日志政策与 Vivaldi 内置的跟踪器/广告拦截器和私密浏览器相结合。"
目前该功能仅适用于桌面浏览器。
不过,要访问这些隐私功能,需要一个 Vivaldi 或 Proton 账户,而且用户只能使用 Proton VPN 服务的免费版本。据 Proton 介绍,这意味着"中等" VPN 速度,以及可以连接到五个随机选择国家的服务器。购买 VPN Plus 选项可以获得更高的速度,并可以访问遍布 110 多个国家的 11,000 多台服务器。
尽管如此,对于那些不想在浏览器外部折腾 VPN 客户端的用户来说,这可能是一个便捷的选择。
关于登录需求,Vivaldi 发言人告诉 The Register:"用户需要使用 Vivaldi 账户 (或 Proton 账户) 登录才能访问此功能。这对于 Vivaldi Sync 等服务也是如此。我们要求账户访问这些服务的原因是为了避免对我们向用户免费提供的服务进行欺诈性使用。"
Vivaldi 并不是第一家提供浏览器内置 VPN 访问的公司。例如,Microsoft 为其 Edge 浏览器提供 Edge Secure Network VPN,但它每月只提供 5GB 的免费 VPN 数据保护,并且不允许客户选择特定的区域或位置来路由其流量。它也不会通过该服务路由 Netflix 等流媒体网站,"以节省您的 VPN 数据限制"。
多么体贴啊。
Vivaldi 发言人承认:"带有内置 VPN 的浏览器通常能很好地保护用户的网页浏览免受窥探。"
即便如此,该发言人补充说,许多浏览器"无法提供像 Proton VPN 这样最佳 VPN 的安全性、性能或解锁能力。它们通常只是简单的代理,给用户一个新的 IP 地址,但不会加密用户的流量。"
Microsoft 也是美国科技巨头之一,而 Vivaldi 与总部位于瑞士的 Proton VPN 的合作,明确表明了其针对寻求其他选择的用户的意图。
Proton VPN 总经理 David Peterson 表示:"全球消费者已经厌倦了大科技公司的数据收集,问题是他们直到最近才有了替代选择。"
"欧洲完全有能力提供这种替代方案,这正是像 Proton 和 Vivaldi 这样的公司正在构建的。"他声称:"Proton VPN 和 Vivaldi 共同设定了一个新标准,挑战科技巨头的主导地位,提供一个可行的欧洲替代方案,帮助人们重新掌控他们的数字生活。"
Proton VPN 由加密电子邮件服务 Proton Mail 的同一家公司运营。该公司在 2024 年因遵守法律要求提供 Proton Mail 账户的恢复电子邮件地址而陷入困境。
该 VPN 服务是开源的。流量使用 AES-256 或 ChaCha20 进行加密。
Vivaldi 的首席运营官兼联合创始人 Tatsuki Tomita 声称:"虽然创新推动技术向前发展,但我们相信道德必须指引其方向。我们 (Proton 和 Vivaldi) 相信私密和安全的浏览不是奢侈品,而是每个人的基本权利。我们共同创造的解决方案将用户置于首位,坚持更高的道德标准,并赋予人们摆脱那些不认同这些价值观的科技巨头的能力。"
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。