机器人和自动化工具已成为云环境中最大的安全风险,网络犯罪分子在应用自动化决策来窃取凭证、转移资金和实施其他恶意活动方面处于领先地位。
Sysdig首席信息安全官(CISO) Sergej Epp表示,虽然现阶段很少有威胁是完全自动化的,且主要攻击错误配置,但它们正在慢慢发展以实施更高级的攻击,如安装加密挖矿程序或在系统间横向移动。
这种自动化导致攻击者驻留时间大幅缩短,传统攻击的驻留时间通常以天为单位计算。相比之下,自动化攻击已知可在5分钟内泄露数据,Epp说道。
他预测攻击将变得越来越自动化,现有的"攻击机器人"将通过使用更新的大语言模型而得到改进。这带来了挑战——网络安全专家知道需要做什么来保护他们的组织,但问题是他们是否能够足够快速地采取必要行动。
Epp认为,还会有大量针对"网络贫困线以下公司"的攻击,这些公司缺乏资源来采取足够的防御措施。
他建议采取与端点安全措施发展并行的必要步骤,首先创建所有云资产的清单并识别任何错误配置,其中可能会有很多。
下一步是优先处理并修复这些问题。然而,由于每日扫描不足以应对实时威胁,这个资产清单和漏洞识别过程必须持续重复。最后,组织应该采用云检测和响应系统来识别和应对异常活动。
**采用AI的压力**
业务压力要求快速采用AI,这使问题更加复杂,但Epp表示大多数人对AI安全的理解是错误的,因为他们关注模型,而实际上重点应该是基础设施。
他指出,Hugging Face库中有超过180万个模型,组织不能简单地信任它们,因为传统扫描对不透明模型不起作用。此外,目前还没有针对提示注入攻击的技术解决方案,而且防火墙也无效,因为与AI相关的网络流量是概率性的而非确定性的。
Epp警告说,这些攻击不仅限于攻击者直接访问聊天机器人的情况。恶意提示可能隐藏在共享文档或上传处理的PDF发票中。
他说,解决方案是通过应用运行时安全最佳实践,将AI工作负载视为任何其他云工作负载。
假设已发生违规、零信任和纵深防御等基本原则仍然适用,但必须在每个容器中增加运行时安全智能体,以检测不当设置或活动,如具有过度权限的应用程序接口(API)或试图移出容器的尝试。
尽管安全运营中心(SOC)拥有必要的数据,但挑战在于将正确的数据子集提供给正确的智能体以实现正确的行动。障碍包括人才短缺和开发所需软件的时间。
云的短暂性质(60%的容器运行时间少于一分钟)使自动化变得至关重要。从这些容器收集安全数据并不容易,Epp说存储超过20%的可用数据可能是不切实际的。
关键问题是收集哪20%。据Epp介绍,Sysdig的方法是采用自上而下的视角。他承认这并不容易,但表示公司广泛的Kubernetes背景使其成为可能,并指出创始人兼首席技术官Loris Degioanni创建了开源容器安全工具Falco,Sysdig平台就是基于此构建的。
虽然大多数安全运营仍然依赖人员来分析数据并采取行动,但Epp表示Sysdig Sage AI分析师将数据转化为实时建议。他将公司定位为自主云安全之旅的领导者,尽管他承认完全自主的系统需要高度信任不会破坏任何东西。
这揭示了一个关键的不对称性。对于网络犯罪分子来说,AI触发错误的成本很低——可能会暴露他们的存在或仅仅意味着他们必须重试。然而,对于防御者来说,错误在财务和声誉方面都可能代价高昂。例如,意外使主要在线银行或零售商宕机会成为头条新闻并失去业务。
"我们需要加快采用安全控制,"Epp说。"要在业务中快速发展,我们在安全方面也需要快速发展。"
好文章,需要你的鼓励
谷歌发布数据共享模型上下文协议服务器,使开发者和AI智能体能够通过自然语言访问真实世界统计数据。该服务整合了政府调查、行政数据和联合国等全球机构的公共数据集。新服务旨在解决AI系统训练中常见的数据噪声和幻觉问题,为AI提供可验证的结构化信息。谷歌还与ONE Campaign合作推出数据智能体工具,该开源服务器兼容任何大语言模型。
这项由谷歌DeepMind研究团队完成的开创性研究首次系统阐述了AI智能体经济的概念框架。研究提出"沙盒经济"模型,从起源性质和边界渗透性两个维度分析AI智能体经济形态,预测未来将出现自然涌现且高度透水的AI经济网络。研究详细探讨了科学加速、机器人协调、个人助手等应用场景,提出基于拍卖机制的公平资源分配方案和使命经济概念,并深入分析了技术基础设施需求、社区货币应用以及相关风险防范措施。
微软宣布从周三开始将Anthropic的AI模型集成到其Copilot助手中,此前该助手主要依赖OpenAI技术。企业用户可在OpenAI的深度推理模型和Anthropic的Claude Opus 4.1、Claude Sonnet 4之间选择,用于复杂研究和构建定制AI工具等任务。此举标志着微软与OpenAI这对曾经独家合作伙伴关系的进一步松动。
中国人民大学研究团队提出LoFT方法,通过参数高效微调基础模型解决长尾半监督学习中的数据不平衡问题。该方法利用预训练模型的良好校准特性改进伪标签质量,并扩展出LoFT-OW版本处理开放世界场景。实验显示,仅使用传统方法1%的数据量就能取得更优性能,为AI公平性和实用性提供了新的解决方案。