据世界经济论坛表示,在未来两年内,错误信息和虚假信息将对各国、企业和个人构成最大风险。
世界经济论坛 (WEF) 今天指出,假新闻的兴起、社交媒体事实核查的减少以及人工智能 (AI) 生成的深度伪造技术的发展,正在威胁着信任基础并加深国家之间的分歧。
当商界领袖、政界人士、学者和非政府组织于1月20日至24日齐聚达沃斯世界经济论坛年会时,政府、企业和社会对AI生成虚假信息的脆弱性将成为重点讨论的风险之一。
世界经济论坛《2025年全球风险报告》汇集了900位商界、学术界、政府和公民社会领袖以及超过11,000家企业的观点,描绘出了一幅令人担忧的图景:未来两年内,各国将变得更加孤立,武装冲突风险增加,环境问题恶化。
世界经济论坛董事总经理米雷克·杜谢克表示:"地缘政治紧张局势升级、全球信任破裂和气候危机正以前所未有的方式考验着全球体系。"
他补充说:"在一个分歧加深、风险叠加的世界中,全球领导人面临着选择:要么促进合作与韧性,要么面对复合性不稳定。当前形势的利害关系前所未有地高。"
鉴于中东、乌克兰和苏丹的战争正在进行,2025年最紧迫的直接风险是进一步的武装冲突。
极端天气事件、以贸易战和关税形式出现的地缘经济对抗,以及社交媒体上错误信息和虚假信息的传播主导着短期风险。
WEF对长期前景不太乐观,大多数专家预测,到2035年,由环境、技术和社会挑战驱动的动荡将更加严重。
更极端的天气事件、自然资源短缺、生态系统崩溃以及污染对健康和生态的影响在长期十大风险中占据重要位置,同时还包括AI风险以及错误信息和虚假信息的增长。
根据WEF的说法,生成式AI使犯罪分子、国家机构、活动人士和个人更容易实施自动化的虚假信息传播活动,并使其具有显著的影响力和覆盖范围。
随着越来越多的人依赖社交媒体和互联网获取信息,论坛在一份100页的报告中指出,人们、政府和企业越来越难以识别可信的信息。
报告还指出,具有隐藏或无法检测偏见的算法的使用也会加剧错误信息和虚假信息的影响。
使用AI审查求职者时,如果训练模型使用的候选人池在性别、种族或国籍方面存在差异,或在预测性警务中使用AI,都可能特别成问题。
WEF警告说:"当算法应用于敏感决策时,训练数据中的偏见或模型设计过程中的假设可能会延续或加剧不平等,进一步剥夺边缘群体的权利。"
报告指出,没有明确的问责制,使用自动算法使得在做出有害或错误决策时难以分配责任。这种缺乏透明度和问责制的情况可能会助长对政府和企业决策的不信任和怀疑。
WEF警告说,随着政府和科技公司可用的计算能力继续增长,政府和企业对公民的监控风险增加,对隐私构成威胁。
负责任地管理时,收集公民数据可以提供更好的公共服务,但如果没有有效的法律保障,数据可能被滥用。
然而,公民往往不知道他们的数据是如何被收集、使用和存储的,这限制了他们做出明智决定的能力。
随着地缘政治动荡可能在未来两年持续,组织需要检查其供应链的脆弱性,并评估从冲突国家供应商购买的声誉风险。
报告撰写人之一、Marsh McLennan欧洲首席商务官卡罗琳娜·克林特表示,各国日益增长的保护主义将对"已经脆弱和紧张"的全球供应链构成深重威胁。
她说,各国限制数据出口的措施和恶意网络攻击的增加可能会加剧这种情况。
苏黎世保险集团首席风险官彼得·吉格表示,随着2024年全球变暖首次超过1.5°C,风险"极高"。
他说:"我们必须关注环境风险——从极端天气到生物多样性损失。立即采取行动对于减轻气候变化的最坏影响和建立韧性至关重要。不作为的代价和缺乏全球合作正在产生不利影响。"
他补充说:"现在最大的风险是袖手旁观,认为我们什么都做不了。现在还不晚。"
好文章,需要你的鼓励
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。