据世界经济论坛表示,在未来两年内,错误信息和虚假信息将对各国、企业和个人构成最大风险。
世界经济论坛 (WEF) 今天指出,假新闻的兴起、社交媒体事实核查的减少以及人工智能 (AI) 生成的深度伪造技术的发展,正在威胁着信任基础并加深国家之间的分歧。
当商界领袖、政界人士、学者和非政府组织于1月20日至24日齐聚达沃斯世界经济论坛年会时,政府、企业和社会对AI生成虚假信息的脆弱性将成为重点讨论的风险之一。
世界经济论坛《2025年全球风险报告》汇集了900位商界、学术界、政府和公民社会领袖以及超过11,000家企业的观点,描绘出了一幅令人担忧的图景:未来两年内,各国将变得更加孤立,武装冲突风险增加,环境问题恶化。
世界经济论坛董事总经理米雷克·杜谢克表示:"地缘政治紧张局势升级、全球信任破裂和气候危机正以前所未有的方式考验着全球体系。"
他补充说:"在一个分歧加深、风险叠加的世界中,全球领导人面临着选择:要么促进合作与韧性,要么面对复合性不稳定。当前形势的利害关系前所未有地高。"
鉴于中东、乌克兰和苏丹的战争正在进行,2025年最紧迫的直接风险是进一步的武装冲突。
极端天气事件、以贸易战和关税形式出现的地缘经济对抗,以及社交媒体上错误信息和虚假信息的传播主导着短期风险。
WEF对长期前景不太乐观,大多数专家预测,到2035年,由环境、技术和社会挑战驱动的动荡将更加严重。
更极端的天气事件、自然资源短缺、生态系统崩溃以及污染对健康和生态的影响在长期十大风险中占据重要位置,同时还包括AI风险以及错误信息和虚假信息的增长。
根据WEF的说法,生成式AI使犯罪分子、国家机构、活动人士和个人更容易实施自动化的虚假信息传播活动,并使其具有显著的影响力和覆盖范围。
随着越来越多的人依赖社交媒体和互联网获取信息,论坛在一份100页的报告中指出,人们、政府和企业越来越难以识别可信的信息。
报告还指出,具有隐藏或无法检测偏见的算法的使用也会加剧错误信息和虚假信息的影响。
使用AI审查求职者时,如果训练模型使用的候选人池在性别、种族或国籍方面存在差异,或在预测性警务中使用AI,都可能特别成问题。
WEF警告说:"当算法应用于敏感决策时,训练数据中的偏见或模型设计过程中的假设可能会延续或加剧不平等,进一步剥夺边缘群体的权利。"
报告指出,没有明确的问责制,使用自动算法使得在做出有害或错误决策时难以分配责任。这种缺乏透明度和问责制的情况可能会助长对政府和企业决策的不信任和怀疑。
WEF警告说,随着政府和科技公司可用的计算能力继续增长,政府和企业对公民的监控风险增加,对隐私构成威胁。
负责任地管理时,收集公民数据可以提供更好的公共服务,但如果没有有效的法律保障,数据可能被滥用。
然而,公民往往不知道他们的数据是如何被收集、使用和存储的,这限制了他们做出明智决定的能力。
随着地缘政治动荡可能在未来两年持续,组织需要检查其供应链的脆弱性,并评估从冲突国家供应商购买的声誉风险。
报告撰写人之一、Marsh McLennan欧洲首席商务官卡罗琳娜·克林特表示,各国日益增长的保护主义将对"已经脆弱和紧张"的全球供应链构成深重威胁。
她说,各国限制数据出口的措施和恶意网络攻击的增加可能会加剧这种情况。
苏黎世保险集团首席风险官彼得·吉格表示,随着2024年全球变暖首次超过1.5°C,风险"极高"。
他说:"我们必须关注环境风险——从极端天气到生物多样性损失。立即采取行动对于减轻气候变化的最坏影响和建立韧性至关重要。不作为的代价和缺乏全球合作正在产生不利影响。"
他补充说:"现在最大的风险是袖手旁观,认为我们什么都做不了。现在还不晚。"
好文章,需要你的鼓励
Xbox 部门推出了名为 Muse 的生成式 AI 模型,旨在为游戏创造视觉效果和玩法。这一举措反映了微软全面拥抱 AI 技术的战略,尽管游戏开发者对 AI 持谨慎态度。Muse 不仅可能提高游戏开发效率,还有望实现老游戏的现代化改造,但其实际效果和对行业的影响仍有待观察。
Sonar收购AutoCodeRover,旨在通过自主AI代理增强其代码质量工具。这项收购将使Sonar客户能够自动化调试和问题修复等任务,让开发者将更多时间用于改进应用程序而非修复bug。AutoCodeRover的AI代理能够自主修复有问题的代码,将与Sonar的工具集成,提高开发效率并降低成本。
人工智能正在推动数据中心的变革。为满足 AI workload 的需求,数据中心面临前所未有的电力消耗增长、散热压力和设备重量挑战。应对这些挑战需要创新的解决方案,包括 AI 专用硬件、可再生能源、液冷技术等。同时,数据中心还需平衡监管压力和社区关切。未来数据中心的发展将决定 AI 技术能否实现其变革性潜力。