Anthropic 首席执行官 Dario Amodei 在对巴黎 AI 行动峰会的尖锐评论中警告称,人工智能将在两年内达到相当于"一个天才国度"的集体智能水平。他给出的时间表 —— 2026 年或 2027 年 —— 是目前主要 AI 领导者对技术发展走向超级智能的最具体预测之一。
Amodei 认为巴黎峰会是一次"错失的机会",他质疑国际社会在 AI 治理方面的缓慢步伐。在民主国家和威权国家争夺 AI 发展主导权的关键时刻,他发出了这一警告。
"我们必须确保民主社会在 AI 领域处于领先地位,不能让威权国家利用它建立全球军事优势,"Amodei 在 Anthropic 的官方声明中写道。他的担忧不仅限于地缘政治竞争,还包括芯片、半导体制造和网络安全等供应链脆弱性。
峰会暴露了国际社会在 AI 监管方面的分歧日益加深。美国副总统 JD Vance 否决了欧洲的监管提案,认为这些提案"过于庞大"且会扼杀创新。美国和英国明显拒绝签署峰会承诺,凸显了在 AI 治理上达成共识的挑战日益严峻。
Anthropic 打破硅谷沉默法则,推出新经济追踪工具
Anthropic 将自己定位为 AI 发展透明度的倡导者。本周,该公司推出了经济指数,用于追踪 AI 对劳动力市场的影响——这与其他更为谨慎的竞争对手形成鲜明对比。该举措回应了人们对 AI 可能重塑全球就业模式的日益增长的担忧。
Amodei 的信息中突出了三个关键问题:保持民主国家在 AI 发展中的领导地位、管理安全风险以及为经济变革做准备。他特别强调了防止非国家行为者滥用 AI 和管理先进系统自主风险的安全问题。
与时间赛跑:控制超级智能 AI 的两年窗口期
Amodei 的时间表凸显了当前监管框架的紧迫性。他预测 AI 将在 2027 年达到天才级别的能力(最迟估计在 2030 年),这表明现有的治理结构可能无法有效管理下一代 AI 系统。
对于技术领导者和政策制定者来说,Amodei 的警告将 AI 治理框定为一场与时间的竞赛。在 AI 能力超出我们的治理能力之前,国际社会面临着建立有效控制的巨大压力。现在的问题是,各国政府能否以同样快速的监管响应来匹配 AI 发展的加速步伐。
巴黎峰会后,科技行业和各国政府正在努力应对一个根本性挑战:如何平衡 AI 带来的前所未有的经济和科学机遇与同样前所未有的风险。正如 Amodei 所言,建立有效国际治理的窗口期正在迅速关闭。
好文章,需要你的鼓励
大多数用户只使用计算机预装的操作系统直到报废,很少尝试更换系统。即使使用较老版本的Windows或macOS,用户仍可通过开源软件获益。本文建议通过重新安装系统来提升性能,Mac用户可从苹果官方下载各版本系统安装包,PC用户则建议使用纯净版Windows 10 LTSC以获得更长支持周期。文章强调备份数据的重要性,并推荐升级内存和固态硬盘。对于老旧系统,应替换需要联网的内置应用以降低安全风险,定期进行系统维护清理。
新加坡南洋理工大学研究团队提出"棱镜假设",认为图像可像光谱一样分解为不同频率成分,低频承载语义信息,高频包含视觉细节。基于此开发的统一自编码系统UAE,通过频率域分解成功统一了图像理解和生成能力,在多项基准测试中超越现有方法,为构建真正统一的视觉AI系统提供了新思路,有望推动计算机视觉技术向更智能统一的方向发展。
微软杰出工程师Galen Hunt在LinkedIn上宣布,目标是到2030年消除微软所有C和C++代码。公司正结合AI和算法重写最大的代码库,目标是"1名工程师、1个月、100万行代码"。微软已构建强大的代码处理基础设施,利用AI代理和算法指导进行大规模代码修改。该项目旨在将微软最大的C和C++系统翻译为内存安全的Rust语言,以提高软件安全性并消除技术债务。
芝加哥伊利诺伊大学团队提出QuCo-RAG技术,通过检查AI训练数据统计信息而非内部信号来检测AI回答可靠性。该方法采用两阶段验证:预检查问题实体频率,运行时验证事实关联。实验显示准确率提升5-14个百分点,在多个模型上表现稳定,为AI可靠性检测提供了客观可验证的新方案。