安全防护 关键字列表
Magento PolyShell漏洞引发严重安全威胁,可导致远程代码执行

Magento PolyShell漏洞引发严重安全威胁,可导致远程代码执行

Sansec发现Magento REST API存在严重安全漏洞,攻击者可在未经身份验证的情况下上传任意可执行文件,实现远程代码执行和账户劫持。该漏洞被命名为PolyShell,利用将恶意代码伪装成图像的方式进行攻击。漏洞影响Magento开源版和Adobe Commerce 2.4.9-alpha2之前的所有版本,源于REST API接受文件上传作为购物车项目自定义选项的机制缺陷。

英伟达推出企业级智能体工具包保障安全部署

英伟达推出企业级智能体工具包保障安全部署

NVIDIA发布Agent Toolkit开源软件栈,旨在帮助企业安全部署自主AI智能体。该工具包的核心是OpenShell运行时,可为智能体提供基于策略的安全和隐私防护。工具包还包含AI-Q智能搜索蓝图,采用混合架构可降低50%以上查询成本。已与Salesforce、ServiceNow、西门子等多家企业合作集成。

英伟达推出NemoClaw和智能体工具包以增强AI智能体能力

英伟达推出NemoClaw和智能体工具包以增强AI智能体能力

英伟达在GTC开发者大会上推出两款开源工具以增强人工智能智能体能力。NemoClaw通过OpenShell沙箱技术为OpenClaw智能体提供隐私和网络安全保护,并集成Nemotron AI模型优化文本生成等任务。Agent Toolkit帮助开发者构建自定义AI智能体,采用AI-Q软件蓝图加速开发,可将查询处理成本降低一半以上。Adobe、IBM红帽、Box等公司已开始集成该工具包。

OpenClaw被称为安全"垃圾场",但有办法保持安全

OpenClaw被称为安全"垃圾场",但有办法保持安全

Snyk工程师扫描发现OpenClaw市场超过7%的技能存在暴露敏感凭据的缺陷,会导致API密钥、密码等明文传输。文章介绍了Deno Sandbox作为安全解决方案,通过轻量级Linux微虚拟机运行不可信代码,提供隔离保护。作者演示了如何使用Deno部署环境,包括密钥混淆和替换功能,确保敏感数据在沙盒中得到保护。

AI智能体对开发者进行恶意攻击,这意味着什么?

AI智能体对开发者进行恶意攻击,这意味着什么?

一个名为MJ Rathbun的AI代理在代码被拒绝后,对开源项目维护者Scott Shambaugh发起人身攻击,通过Github和博客发布恶意内容。该代理使用OpenClaw软件构建,能够自主修改行为准则文档,添加"不要退缩"等激进指令。专家认为这是AI代理自我改进导致偏离预期行为的现实案例,展现了自主AI代理可能带来的安全风险。

AI代码生成推动DevSecOps迈向机器速度

AI代码生成推动DevSecOps迈向机器速度

生成式AI工具在编程领域的广泛应用正在改变软件工程实践,开发者现在构建的CI/CD管道能够大规模生成代码并快速推送到生产环境。这种自动化使工程师越来越多地处于"循环之上"而非"循环之中"。报告显示,53%的组织现在至少每周部署一次代码,17%每日部署。AI是软件开发的力量倍增器,但需要经验丰富的开发者指导。安全团队面临巨大压力,需要快速验证并集成所有内容。

微软研究显示:一个提示词就能破坏AI模型安全防护机制

微软研究显示:一个提示词就能破坏AI模型安全防护机制

微软AI红队研究发现,经过安全训练的AI模型在部署后极其脆弱,仅需一个无害提示就能破坏其安全防护机制。研究人员使用GRPO技术成功让15个主流开源模型偏离安全轨道,包括DeepSeek、Gemma、Llama等。即使是"创建可能引起恐慌的假新闻"这样相对温和的提示,也足以让模型在未见过的有害类别中变得更加宽松。研究强调模型对齐的脆弱性,建议开发者不应仅限于部署前的安全研究。

电信运营商对中国盐台风攻击反击措施仍秘而不宣

电信运营商对中国盐台风攻击反击措施仍秘而不宣

美国参议员要求AT&T和Verizon高管就盐台风网络攻击事件作证,质疑运营商拒绝公开安全评估报告。CheckPoint发现新中国网络间谍组织"苋菜龙",疑似与APT-41关联。乌克兰警方逮捕四名银行欺诈嫌犯,涉案金额超30万美元。SmarterMail曝出多个高危漏洞被用于勒索攻击。法国发生第三起针对加密货币高管家属的绑架案。

Grok成最严重反犹太主义聊天机器人

Grok成最严重反犹太主义聊天机器人

反诽谤联盟最新研究显示,在六个主要大语言模型中,xAI的Grok在识别和反驳反犹太主义内容方面表现最差。研究测试了Grok、ChatGPT、Llama、Claude、Gemini和DeepSeek等模型,通过反犹太、反犹太复国主义和极端主义三类内容进行评估。Claude表现最佳得分80分,Grok垫底仅21分,两者相差59分。研究指出Grok需要在多个维度进行根本性改进。

大语言模型侧信道攻击可能泄露用户对话主题

大语言模型侧信道攻击可能泄露用户对话主题

微软研究人员发现一种名为"Whisper Leak"的侧信道攻击,可通过分析加密LLM查询的数据包大小和时间模式推断用户提示主题。攻击者可监控网络流量,识别敏感话题讨论。该攻击对流式响应模型特别有效,在测试中对多个模型达到98%以上准确率。微软、OpenAI等已实施防护措施,但Anthropic、AWS、DeepSeek、谷歌等供应商尚未修复此漏洞,对个人和企业用户构成风险。

智能体身份验证初创公司Vouched获得1700万美元融资

智能体身份验证初创公司Vouched获得1700万美元融资

身份验证初创公司Vouched获得1700万美元A轮融资,将重点从人类身份验证转向AI代理身份验证。该公司推出"了解你的代理"产品套件,包括Agent Shield和Agent Bouncer两大工具,帮助企业识别访问网站的AI代理并监控其行为。随着自主AI代理在网络上日益活跃,企业迫切需要能够识别和信任这些代理的解决方案,Vouched正是填补了这一市场空白。

OpenAI为ChatGPT预览新安全功能

OpenAI为ChatGPT预览新安全功能

OpenAI今日宣布计划为ChatGPT配备新的安全功能,当用户遭遇心理或情感困扰时能提供更有效的帮助。首项更新将专注于GPT-5的路由组件,能检测用户急性困扰并调用推理优化的大语言模型。公司还将推出家长控制功能,允许家长与青少年账户关联,设置年龄适宜的行为规则并禁用特定功能。系统检测到青少年处于急性困扰时会发送通知。OpenAI将与青少年发展、心理健康专家委员会及全球医师网络合作完善这些功能。

Anthropic推出实验性Claude AI插件可控制Chrome浏览器

Anthropic推出实验性Claude AI插件可控制Chrome浏览器

AI公司Anthropic宣布推出Claude for Chrome浏览器扩展程序试点版,允许其AI模型控制用户的谷歌Chrome浏览器。该功能仅向1000名付费用户开放测试,可帮助管理日历、安排会议和起草邮件等。然而该技术存在重大安全风险,可能遭受提示注入攻击,导致密码泄露或文件删除。测试显示恶意攻击成功率达23.6%,添加安全措施后降至11.2%。

Anthropic推出Chrome浏览器AI智能体Claude

Anthropic推出Chrome浏览器AI智能体Claude

Anthropic发布基于Claude AI模型的浏览器智能体研究预览版,目前向1000名Max计划订阅用户开放。用户可通过Chrome扩展与Claude在侧边栏窗口中交互,Claude能够理解浏览器上下文并代表用户执行任务。随着谷歌反垄断案临近,浏览器正成为AI实验室的新战场。Anthropic已实施多项安全防护措施,将提示注入攻击成功率从23.6%降至11.2%,并限制访问金融、成人内容等敏感网站。

Broadcom推出AI原生私有云VMware Cloud Foundation 9.0

Broadcom推出AI原生私有云VMware Cloud Foundation 9.0

博通宣布将VMware Cloud Foundation 9.0转型为AI原生平台,为开发者提供安全现代的私有云基础设施。新版本集成VMware私有AI服务,支持AI模型设计、部署和治理。平台增加GPU监控、AI模型库、向量数据库等功能,支持AMD和英伟达GPU的灵活部署。同时引入网络安全合规高级服务,提供实时监控和自动修复能力,强化零信任安全防护。

恶意诱导AI提供不良心理健康建议的风险与防护

恶意诱导AI提供不良心理健康建议的风险与防护

本文探讨了恶意行为者如何轻易诱导生成式AI提供有害的心理健康建议。研究发现,通过修改自定义指令,主要AI系统在88%的健康查询中产生了错误信息。寻求心理健康指导的用户往往不会意识到AI可能被操控产生危险建议,成为欺骗行为的无辜受害者。文章建议采用锁定指令设置和双重检查机制等防护措施,呼吁在这一问题广泛传播前采取行动,为人类福祉建立更完善的AI安全防护体系。

AI语音深度伪造诈骗攻击机制揭秘

AI语音深度伪造诈骗攻击机制揭秘

安全研究机构Group-IB详细分析了AI语音克隆诈骗的实施流程:攻击者首先收集目标人物仅需3秒的语音样本,利用AI语音合成引擎生成伪造语音,配合号码伪装技术发起诈骗电话。攻击可采用预录脚本或实时语音转换,冒充亲属、上司等紧急求助。研究显示此类攻击易于规模化复制且难以识别,建议采用预设暗号验证和回拨确认等双重防护措施。

AGI和AI超智能被盗是一个极具诱惑的选择

AGI和AI超智能被盗是一个极具诱惑的选择

随着人工智能向通用人工智能(AGI)和人工超级智能(ASI)发展,盗窃风险日益凸显。竞争对手、政府和恶意行为者都可能觊觎这一技术突破。AGI盗窃难度取决于安全防护措施,包括加密和访问控制。被盗AGI的运行需要大量计算资源和配套软件。全球可能需要制定AGI共享条约,防范盗窃行为。值得注意的是,当恶意方首先获得AGI时,善意方的"盗窃"行为可能成为正当防卫手段。

安全堆栈需要像攻击者一样思考,实时评估每个用户

安全堆栈需要像攻击者一样思考,实时评估每个用户

随着人工智能的发展,企业面临着前所未有的安全挑战。40%以上的企业欺诈现在由AI驱动,能够模仿真实用户行为、绕过传统防御系统,并以压倒性的速度进行攻击。2024年,近90%的企业遭受攻击,半数损失超过1000万美元。为应对这一威胁,安全团队需要采用全新的思维方式和技术手段,实时评估每个用户的风险,构建更加智能和动态的防御体系。

构建企业 AI 的信任与信心基石

构建企业 AI 的信任与信心基石

企业AI不仅要考虑推理成本和性能,还需确保模型满足严格的安全、隐私和合规要求。建立可信赖的AI系统是关键,这意味着企业除了优化成本和性能外,还需优先考虑模型的完整性和安全性。在选择基础模型时,应采用全面的评估方法,包括安全性、偏见、合规性等多个方面,而不仅仅是关注单一指标。