Peter Green Chilled 是为英国超市提供冷藏及新鲜产品的重要供应商。据报道,该公司遭到一名尚未确定身份的网络犯罪团伙策划的勒索攻击,成为英国零售行业最新遭受安全事件影响的机构之一。
成立于 60 年前,当时作为一家与 Somerset 乳品供应商合作的运输公司,Peter Green 已发展成为国内温控仓储与运输(cold chain)领域中一个鲜为人知但根基扎实的企业,供应对象包括 Aldi、Sainsbury’s 和 Tesco 等。该公司还提供 IT 服务,涵盖运输与仓库管理系统 (T/WMS)、电子数据交换 (EDI)、库存与温度控制系统以及车辆跟踪与监控。
据 BBC Radio 5 Live 的 Wake up to money 节目报道 —— 此节目首先披露了该事件 —— 攻击似乎始于 5 月 14 日(星期三)晚间,目前已使该机构无法接收新的订单。
Peter Green 的一位发言人对该节目表示,目前无法对这一事件做进一步讨论。然而,该公司的客户之一,The Black Farmer 创始人 Wilfred Emmanuel-Jones 表示,事故发生近一周以来,他仍未看到 Peter Green 如何将已送至其仓库的货物配送到零售商手中的解决方案。
“如果这些货物在接下来几天内不能被送达,由于它们属于新鲜产品,就必须被丢弃,” Emmanuel-Jones 说,“对于一家小企业来说,这将是相当毁灭性的打击。更糟糕的是,我们刚刚还收到一批来自瑞典的货物,目前因 Peter Green 不再接收其他供应商的货物而滞留在港口,因此我们不得不设法将其送往超市。”
Emmanuel-Jones 在节目中透露,他的企业可能因此损失高达 100,000 英镑,对小企业来说,这样的损失是难以承受的。
Computer Weekly 曾联系 Peter Green Chilled,但发现其电子邮件地址未作响应。
关于 M&S、Co-op 攻击的猜测
在 Peter Green 未提供进一步信息之际,截至本文撰写时,将此次事件与正在影响 Marks and Spencer (M&S) 及 Co-op 的 DragonForce/Scattered Spider 事件关联,仅停留在猜测层面,尚无确凿证据证实这种联系。
不过,第三方风险专家 SecurityScorecard 的高级渗透测试员 David Mound 表示,该公司团队正在密切关注正在影响食品零售商的“新兴网络攻击模式”。
他指出,随着更多知名品牌卷入这一事件,正在发展的 Peter Green 事件突显了互联数字供应链的脆弱性,并在整个零售行业中引发了一系列连锁反应。
“这些事件反映出网络犯罪团伙日益倾向于利用那些由于时间敏感性和产品易腐性而面临恢复运营巨大压力的行业,从而提高勒索支付的可能性,” Mound 说,“在食品零售领域,即使是短暂的中断也可能导致产品变质、物流瓶颈和消费者信任丧失。”
“攻击者现在不再仅仅针对数据;他们盯上了紧迫性,” Mound 补充道,“在产品即将过期和要求准时配送的环境下,威胁者深知每延误一小时,支付赎金的压力就会成倍增加。”
“许多关键物流和 IT 提供商的风险评估和分级工作明显不足,” Mound 补充说,“整个行业迫切需要在第三方风险情报和业务韧性标准方面进行协作。”
“SecurityScorecard 敦促食品及零售行业的所有机构重新评估其第三方风险状况,并确保供应商不仅在合规性方面经过评估,更在面对压力时展现出足够的业务韧性。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。