科技巨头 Oracle 正因其对两起看似独立的数据泄露事件的处理方式而受到批评。
尽管 Oracle 据报道否认发生任何泄露,但至少其中一起事件似乎仍在持续发展。另一起事件则涉及该公司医疗保健子公司 Oracle Health 的患者数据泄露。
Oracle 未回应 TechCrunch 就这两起事件的置评请求。
Oracle Health 数据泄露影响患者数据
最近披露的泄露事件涉及 Oracle Health,该部门为医院和其他医疗机构提供在线访问健康记录的技术服务。Oracle Health 是与 Cerner 合并的业务单元,Oracle 于 2022 年以 280 亿美元收购了这家电子健康记录公司。
据彭博社和 Bleeping Computer 上周报道,此次泄露影响了患者数据,但目前尚不清楚具体泄露了哪些类型的数据,也不清楚使用 Oracle Health 的哪些机构和公司受到影响。
根据这些报道,Oracle 在今年 3 月通知了部分医疗客户,黑客入侵了 Oracle 服务器并窃取了患者数据。
据 Bleeping Computer 报道,发送给部分 Oracle Health 客户的通知中写道:"我们特此通知您,在 2025 年 2 月 20 日前后,我们发现一起网络安全事件,未经授权访问了尚未迁移至 Oracle Cloud 的旧版服务器上的部分 Cerner 数据。"
该新闻网站援引多个消息来源称,一名黑客正试图勒索受影响的医院,据报道索要数百万美元。
一名要求匿名的 Oracle 员工告诉 TechCrunch,公司对其自身员工也缺乏透明度。该员工未获授权对媒体发言。
该员工表示:"我的团队有几天无法访问客户环境。我担心的不仅仅是患者数据泄露。通过主机访问显然可以访问所有托管内容。一些客户还托管着人力资源和财务等其他应用程序。不过我不知道黑客是否访问了这些内容。"
这名员工表示,他们不得不查看 Reddit 和内部 Slack 频道"才能发现有事情正在被调查"。
该员工表示自己"感觉被完全忽视",并将这种情况描述为:"这里没什么可看的,继续向前走。"
不过该员工也表示,他们在 Slack 上看到一些团队在 3 月 4 日收到了与客户沟通的指导语:"我们将调查您遇到的问题。"
Oracle 否认云服务泄露,但证据不断增加
另一起独立的泄露事件涉及 Oracle Cloud 服务器。在这起事件中,Oracle 同样没有对事件经过保持透明。
本月早些时候,一名网名为 rose87168 的黑客在一个网络犯罪论坛上发帖,声称掌握了 600 万 Oracle Cloud 客户的数据,包括认证数据和加密密码,正如 Bleeping Computer 当时报道的那样。
为证明他们确实入侵了 Oracle,rose87168 上传了一个包含其网名的文本文件,该文件托管在 Oracle Cloud 服务器上。
奇怪的是,Oracle 完全否认发生任何泄露。
Oracle 告诉该出版物:"Oracle Cloud 没有发生任何泄露。公布的凭据不是 Oracle Cloud 的凭据。没有 Oracle Cloud 客户遭遇泄露或丢失任何数据。"
但并非所有人都相信这一说法。
网络安全专家 Kevin Beaumont 在分析这起所谓的 Oracle Cloud 泄露事件的博文中写道:"这是一起严重的网络安全事件,影响到了客户,而这个平台是由 Oracle 管理的。Oracle 试图在 Oracle Cloud 方面玩弄文字游戏,用非常具体的措辞来逃避责任。这是不可接受的。"
Beaumont 表示:"Oracle 需要清晰、公开地传达发生了什么,如何影响客户,以及他们将采取什么措施。这关系到信任和责任。Oracle 要么站出来负责,要么客户就该开始离开了。"
网络安全专家 Lisa Forte 在 Bluesky 上评论其中一起所谓的 Oracle 泄露事件时写道:"如果这最终被证实是真的,我觉得很难不是这样,这将是非常非常糟糕的表现。"
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。