IBM今天的一份新报告发现,2024年数据泄露的平均成本已达到488万美元的历史新高,比 2023年增长10%,因为泄露事件的破坏性越来越大,并进一步提高了对网络团队的需求。
这些数据来自IBM的2024年数据泄露成本年度报告,该报告根据2023年3月至2024年2月期间对全球604个组织经历的真实数据泄露事件分析而成。该研究由Ponemon Institute进行,报告已经连续发布了19年。
除了数据泄露成本平均上升了10%之外,该报告的主要发现还包括,70%的组织报告称,数据泄露造成了重大或非常重大的破坏。
由于业务损失以及泄露后的客户和第三方响应成本推动,数据泄露平均成本不断上升,造成的连带损失只会不断上升。该报告指出,数据泄露的破坏性影响不仅在于会增加成本,还会让恢复时间变得更长,在某些情况下,组织需要100多天才能完全恢复。
很多组织的安全团队在处理攻击方面都人手不足。该报告发现,与去年相比,网络安全人员短缺增加了26%,与安全人员配备充足或缺口不大的公司相比,网络安全人手短缺的公司数据泄露的成本平均高出176万美元。
三分之二的受访企业已经或者正在安全运营中部署人工智能安全服务和相关自动化工具,和去年相比,这是一个显著的转变,也是一个积极的转变。已经使用人工智能安全工具的企业在数据泄露上的成本比那些不使用人工智能的企业平均低220万美元,这是人工智能安全的一个明确卖点。
在成功绕过防御的数据泄露事件中,有40%都涉及数据在多处存储,包括公共云、私有云和本地存储。这些数据泄露的平均成本超过500万美元,识别和遏制需要的时间也最长,达到283天。
报告中的其他发现包括被盗或泄露的凭据成为最常见的初始攻击媒介,在所有泄露事件中占比16%,解决起来也最为耗费时间,通常需要将近10个月。医疗保健、金融服务和技术等关键基础设施行业的泄露成本最高,其中医疗保健行业泄露成本连续14年最高,平均为977万美元。
虽然人们注意到人工智能防御正在迅速部署,但该报告警告说,更广泛地拥抱人工智能会带来更大的风险。
IBM Security 战略和产品设计副总裁 Kevin Skapinetz 表示:“企业陷入了泄露、遏制和后果响应的持续循环中。”“这个循环现在通常包括加强对安全防御的投资并将泄露的成本转嫁给消费者——让安全成为开展业务的新成本。随着生成式人工智能快速渗透进入企业,扩大了攻击面,这些成本很快就会变得不可持续,迫使企业重新评估安全措施和响应策略。未雨绸缪,企业应该投资于新的人工智能驱动的防御措施,并开发所需的技能,以应对生成式人工智能带来的新风险和机遇。”
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
中科院联合字节跳动开发全新AI评测基准TreeBench,揭示当前最先进模型在复杂视觉推理上的重大缺陷。即使OpenAI o3也仅获得54.87%分数。研究团队同时提出TreeVGR训练方法,通过要求AI同时给出答案和精确定位,实现真正可追溯的视觉推理,为构建更透明可信的AI系统开辟新路径。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
PyVision是上海AI实验室开发的革命性视觉推理框架,让AI系统能够根据具体问题动态创造Python工具,而非依赖预设工具集。通过多轮交互机制,PyVision在多项基准测试中实现显著性能提升,其中在符号视觉任务上提升达31.1%。该框架展现了从"工具使用者"到"工具创造者"的AI能力跃迁,为通用人工智能的发展开辟了新路径。