IBM今天的一份新报告发现,2024年数据泄露的平均成本已达到488万美元的历史新高,比 2023年增长10%,因为泄露事件的破坏性越来越大,并进一步提高了对网络团队的需求。
这些数据来自IBM的2024年数据泄露成本年度报告,该报告根据2023年3月至2024年2月期间对全球604个组织经历的真实数据泄露事件分析而成。该研究由Ponemon Institute进行,报告已经连续发布了19年。
除了数据泄露成本平均上升了10%之外,该报告的主要发现还包括,70%的组织报告称,数据泄露造成了重大或非常重大的破坏。
由于业务损失以及泄露后的客户和第三方响应成本推动,数据泄露平均成本不断上升,造成的连带损失只会不断上升。该报告指出,数据泄露的破坏性影响不仅在于会增加成本,还会让恢复时间变得更长,在某些情况下,组织需要100多天才能完全恢复。
很多组织的安全团队在处理攻击方面都人手不足。该报告发现,与去年相比,网络安全人员短缺增加了26%,与安全人员配备充足或缺口不大的公司相比,网络安全人手短缺的公司数据泄露的成本平均高出176万美元。
三分之二的受访企业已经或者正在安全运营中部署人工智能安全服务和相关自动化工具,和去年相比,这是一个显著的转变,也是一个积极的转变。已经使用人工智能安全工具的企业在数据泄露上的成本比那些不使用人工智能的企业平均低220万美元,这是人工智能安全的一个明确卖点。
在成功绕过防御的数据泄露事件中,有40%都涉及数据在多处存储,包括公共云、私有云和本地存储。这些数据泄露的平均成本超过500万美元,识别和遏制需要的时间也最长,达到283天。
报告中的其他发现包括被盗或泄露的凭据成为最常见的初始攻击媒介,在所有泄露事件中占比16%,解决起来也最为耗费时间,通常需要将近10个月。医疗保健、金融服务和技术等关键基础设施行业的泄露成本最高,其中医疗保健行业泄露成本连续14年最高,平均为977万美元。
虽然人们注意到人工智能防御正在迅速部署,但该报告警告说,更广泛地拥抱人工智能会带来更大的风险。
IBM Security 战略和产品设计副总裁 Kevin Skapinetz 表示:“企业陷入了泄露、遏制和后果响应的持续循环中。”“这个循环现在通常包括加强对安全防御的投资并将泄露的成本转嫁给消费者——让安全成为开展业务的新成本。随着生成式人工智能快速渗透进入企业,扩大了攻击面,这些成本很快就会变得不可持续,迫使企业重新评估安全措施和响应策略。未雨绸缪,企业应该投资于新的人工智能驱动的防御措施,并开发所需的技能,以应对生成式人工智能带来的新风险和机遇。”
好文章,需要你的鼓励
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
实验室和真实使用测试显示,iPhone Air电池续航能够满足一整天的典型使用需求。在CNET进行的三小时视频流媒体压力测试中,iPhone Air仅消耗15%电量,表现与iPhone 15相当。在45分钟高强度使用测试中表现稍逊,但在实际日常使用场景下,用户反馈iPhone Air能够稳定支撑全天使用,有线充电速度也比较理想。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。