2023年数据泄露成本报告是从2022年3月至2023年3月期间对全球553个组织所经历的真实数据泄露进行的深入分析,报告由Ponemon Institute进行,这是连续第18年发布。

报告中的主要发现包括:检测和升级成本在过去三年中增长了42%,在数据泄露成本中占比最高,而且出现了转向更复杂数据泄露调查的趋势。
报告称,企业在计划如何应对日益增加的成本和频率的数据泄露问题上存在着分歧。研究发现,尽管95%受访组织经历过不止一次的数据泄露,但这些组织更有可能将事件成本转嫁给消费者(57%),而不是增加安全投资(51%)。
2023年人工智能自然受到关注,该报告也涵盖了人工智能在数据泄露管理自动化中发挥的重要作用。有趣的是,人工智能有利于安全,因为与不使用人工智能的公司相比,广泛部署人工智能的组织的数据泄露生命周期要短得多——平均短108天。使用人工智能还平均节省了近180万美元的数据泄露成本,成为报告中最具实质性的成本节省措施。
尽管这些人工智能相关的数据令人鼓舞,但仍然存在一些问题。很多组织在勒索软件攻击期间仍然犹豫是否让执法部门介入。虽然一些公司因担心声誉受损而不愿将数据泄露事件公之于众或许可以理解,但对不涉及执法的组织来说,数据泄露生命周期平均延长了33天,并额外产生了470000美元的数据泄露成本。
报告还指出,检测泄露对组织来说是一个重大挑战,只有三分之一的数据泄露事件是由组织自己的安全团队或工具检测到的。与内部发现相比,攻击者暴露的漏洞所造成的成本增加了近100万美元,生命周期延长了近80天。
IBM全球安全服务部总经理Chris McCurdy表示:“对于防御者和攻击者来说,时间就是网络安全的一种新型货币。正如报告所示,早期检测和快速响应可以显着减少数据泄露所带来的影响。安全团队必须关注对手最成功的地方,并集中精力在他们实现目标之前阻止他们。在威胁检测和响应方法方面进行投资,以提高防御者的速度和效率——例如人工智能和自动化——对于改变这种平衡来说是至关重要的。”
好文章,需要你的鼓励
OpenAI、Anthropic和Google的AI代码助手现在能够在人工监督下连续工作数小时,编写完整应用、运行测试并修复错误。但这些工具并非万能,可能会让软件项目变得复杂。AI代码助手的核心是大语言模型,通过多个LLM协作完成任务。由于存在上下文限制和"注意力预算"问题,系统采用上下文压缩和多代理架构来应对。使用时需要良好的软件开发实践,避免"氛围编程",确保代码质量和安全性。研究显示经验丰富的开发者使用AI工具可能反而效率降低。
这项研究由北京交通大学研究团队完成,系统阐述了人工智能智能体从"流水线"范式向"模型原生"范式的转变。研究表明,通过强化学习,AI可以自主学会规划、使用工具和管理记忆等核心能力,而不再依赖外部脚本。论文详细分析了这一范式转变如何重塑深度研究助手和GUI智能体等实际应用,并探讨了未来多智能体协作和自我反思等新兴能力的发展方向。
英伟达与AI芯片竞争对手Groq达成非独家授权协议,将聘请Groq创始人乔纳森·罗斯、总裁桑尼·马德拉等员工。据CNBC报道,英伟达以200亿美元收购Groq资产,但英伟达澄清这并非公司收购。Groq开发的LPU语言处理单元声称运行大语言模型速度快10倍,能耗仅为十分之一。该公司今年9月融资7.5亿美元,估值69亿美元,为超200万开发者的AI应用提供支持。
Prime Intellect团队发布开源AI训练全栈INTELLECT-3,这个106亿参数模型在数学、编程等测试中超越多个大型前沿模型。团队完全开源了包括prime-rl训练框架、环境库、代码执行系统在内的完整基础设施,为AI研究社区提供了高质量的训练工具,推动AI技术民主化发展。