CrowdStrike Holdings Inc. 今日发布了全新功能,能够帮助企业保护员工免受恶意人工智能模型及其他威胁的侵害。
这些功能正在发布于该公司旗舰级 Falcon 网络安全平台。
首项新功能 — AI 模型扫描 — 承诺能够检测所谓的木马模型。这些 AI 模型在大多数情况下都能正常运作,但当受到某些特定提示时,会生成恶意输出。例如,黑客可能配置一个编程助手,在开发者询问如何从代码中移除漏洞时生成错误建议。
网络犯罪分子通过将恶意记录注入训练数据来制造木马模型。通过修改神经网络的权重— 即决定如何处理提示的配置设置— 也可能产生有害输出。
除了木马模型外,新的 AI 模型扫描还能够识别后门及其他威胁。它使用一种名为 ExPRT.AI 的技术按严重性对发现的问题进行排序。根据 CrowdStrike 的说法,ExPRT.AI 利用有关黑客攻击活动的威胁情报来判断漏洞被利用的可能性。
AI 模型扫描与另一项新功能 — AI 安全仪表板 — 同时推出。该仪表板旨在帮助管理员发现影子 AI,即指员工在未获许可的情况下使用潜在不安全的 AI 应用程序的情况。此外,该功能还能监控公司内部 AI 训练数据的使用情况。
CrowdStrike 的 Falcon 平台还有另一组件用于检测数据滥用。该模块被称为 Falcon Data Protection,能够检测诸如试图将敏感记录下载到不安全设备上的风险。此次更新中,该模块获得了数项新功能。
公司表示,Falcon Data Protection 现已能够检测 Mac 上未经授权的数据移动。此外,新版本对检测文件外泄企图的掩饰措施明显更为出色。
黑客常常通过侵入公司后将记录复制到公司网络之外的服务器来窃取数据。将文件移动到公司网络之外的企图通常较容易被网络安全工具发现。因此,黑客有时会尝试通过将窃取的数据封装成加密 ZIP 文件再进行传输来掩盖行踪,而此类文件让网络安全工具难以扫描。
根据 CrowdStrike 的说法,Falcon Data Protection 的最新版本在加密 ZIP 文件 “创建时” 就开始扫描,而非事后扫描。这使其能够扫描文件内容以查找被窃数据。此外,CrowdStrike 表示,即使数据在上传前经过修改,Falcon Data Protection 也能检测到敏感数据被上传到生成式 AI 工具的企图。
此次更新还包括一款新版本工具,名为 Falcon Data Protection for Cloud。它旨在识别公有云环境中的未经授权数据移动。该软件能够在应用程序、数据库及其他云外资产中发现未经授权的活动。
产品更新还伴随着一项全新的专业服务 — SaaS Threat Services。注册该服务的公司可以由 CrowdStrike 专业人员对其软件即服务(SaaS)应用程序进行扫描,查找不安全的配置设置、与外部应用程序的风险集成及相关问题。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。