IBM今天的一份新报告发现,2024年数据泄露的平均成本已达到488万美元的历史新高,比 2023年增长10%,因为泄露事件的破坏性越来越大,并进一步提高了对网络团队的需求。
这些数据来自IBM的2024年数据泄露成本年度报告,该报告根据2023年3月至2024年2月期间对全球604个组织经历的真实数据泄露事件分析而成。该研究由Ponemon Institute进行,报告已经连续发布了19年。
除了数据泄露成本平均上升了10%之外,该报告的主要发现还包括,70%的组织报告称,数据泄露造成了重大或非常重大的破坏。
由于业务损失以及泄露后的客户和第三方响应成本推动,数据泄露平均成本不断上升,造成的连带损失只会不断上升。该报告指出,数据泄露的破坏性影响不仅在于会增加成本,还会让恢复时间变得更长,在某些情况下,组织需要100多天才能完全恢复。
很多组织的安全团队在处理攻击方面都人手不足。该报告发现,与去年相比,网络安全人员短缺增加了26%,与安全人员配备充足或缺口不大的公司相比,网络安全人手短缺的公司数据泄露的成本平均高出176万美元。
三分之二的受访企业已经或者正在安全运营中部署人工智能安全服务和相关自动化工具,和去年相比,这是一个显著的转变,也是一个积极的转变。已经使用人工智能安全工具的企业在数据泄露上的成本比那些不使用人工智能的企业平均低220万美元,这是人工智能安全的一个明确卖点。
在成功绕过防御的数据泄露事件中,有40%都涉及数据在多处存储,包括公共云、私有云和本地存储。这些数据泄露的平均成本超过500万美元,识别和遏制需要的时间也最长,达到283天。
报告中的其他发现包括被盗或泄露的凭据成为最常见的初始攻击媒介,在所有泄露事件中占比16%,解决起来也最为耗费时间,通常需要将近10个月。医疗保健、金融服务和技术等关键基础设施行业的泄露成本最高,其中医疗保健行业泄露成本连续14年最高,平均为977万美元。
虽然人们注意到人工智能防御正在迅速部署,但该报告警告说,更广泛地拥抱人工智能会带来更大的风险。
IBM Security 战略和产品设计副总裁 Kevin Skapinetz 表示:“企业陷入了泄露、遏制和后果响应的持续循环中。”“这个循环现在通常包括加强对安全防御的投资并将泄露的成本转嫁给消费者——让安全成为开展业务的新成本。随着生成式人工智能快速渗透进入企业,扩大了攻击面,这些成本很快就会变得不可持续,迫使企业重新评估安全措施和响应策略。未雨绸缪,企业应该投资于新的人工智能驱动的防御措施,并开发所需的技能,以应对生成式人工智能带来的新风险和机遇。”
好文章,需要你的鼓励
生成式AI的兴起让谷歌和Meta两大科技巨头受益匪浅。谷歌母公司Alphabet第三季度广告收入同比增长12%达742亿美元,云服务收入增长33%至151.5亿美元,季度总收入首次突破千亿美元大关。Meta第三季度收入512.5亿美元,同比增长26%。两家公司都将大幅增加AI基础设施投资,Meta预计2025年资本支出提升至700亿美元,Alphabet预计达910-930亿美元。
杜克大学研究团队建立了首个专门针对Web智能体攻击检测的综合评估标准WAInjectBench。研究发现,现有攻击手段极其多样化,从图片像素篡改到隐藏弹窗无所不包。虽然检测方法对明显恶意指令有中等效果,但对隐蔽攻击几乎无能为力。研究构建了包含近千个恶意样本的测试数据库,评估了十二种检测方法,揭示了文本和图像检测的互补性。这项研究为Web智能体安全防护指明了方向,提醒我们在享受AI便利时必须保持安全意识。
谷歌DeepMind开发的多智能体AI系统通过让多个AI代理相互协作、讨论和辩论来解决复杂问题。该系统在医疗领域表现出色,能够在两天内完成人类十年的研究成果,包括发现新的药物重新定位候选物和治疗方案。AI临床医生"Amy"不仅能生成更好的诊断方案,还表现出比人类医生更强的同理心。这项技术有望在十年内实现零边际成本的全球医疗服务普及。
加州大学圣地亚哥分校研究团队系统研究了AI智能体多回合强化学习训练方法,通过环境、策略、奖励三大支柱的协同设计,提出了完整的训练方案。研究在文本游戏、虚拟家庭和软件工程等多个场景验证了方法有效性,发现简单环境训练能迁移到复杂任务,监督学习初始化能显著减少样本需求,密集奖励能改善学习效果。这为训练能处理复杂多步骤任务的AI智能体提供了实用指南。