大语言模型防火墙是 AI 安全的未来吗?

随着大型语言模型(LLMs)在各行业广泛应用,保护这些强大AI工具的安全性日益受到关注。专家们探讨了LLM防火墙是否能解决AI安全问题,或仅是安全体系中的一环。专家们认为,LLM防火墙不仅能确保AI安全,还能防止模型产生偏见和有害输出。他们强调了定制化、多层防御和跨学科团队的重要性,并指出LLM防火墙将随着AI技术的发展而不断演进。

随着大语言模型 (LLM) 在各行业得到更广泛的应用,确保这些强大 AI 工具的安全性已成为一个日益增长的关切。本周在新加坡举行的 Black Hat Asia 2025 大会上,一组专家深入探讨了 LLM 防火墙是否是 AI 安全的解决方案,还是仅仅是整个安全体系中的一部分。

网络安全公司 CloudsineAI 的创始人 Matthias Chin 首先指出了防护机制和防火墙之间的区别:"防护机制是一种保护机制,而防火墙是一个具有更多功能的安全概念 - 例如,它是一个控制点,包含防护机制,拥有威胁向量数据库,并可以与 SIEM (安全信息和事件管理) 工作流程集成。"

新加坡内政团队科技局 (HTX) 首席创新官兼首席云工程师 Pan Yong Ng 指出,将 AI 安全整合到组织 IT 基础设施的基础中非常重要,尽管对于安全控制应该放在哪里仍存在不确定性。他建议在各个层面实施组合控制,从推理服务模型到 Web 应用程序安全,甚至扩展到 AI 代理。

AI Singapore 的 AI 创新总监 Laurence Liew 表示,开发人员对 AI 代理和大语言模型的使用日益增加,这将需要使用 LLM 防火墙来执行防护机制和企业政策。他说:"我们告诉年轻工程师要确保设置某些防护机制,他们会去做,但他们经常忙于编码,以至于防护机制可能没有得到更新。"

新加坡南洋理工大学研究员 Xiaojun Jia 指出了传统防火墙在解决 LLM 特定安全问题方面的局限性。他说:"传统防火墙专注于网络安全,这使得它们在防御利用 LLM 逻辑流程的越狱攻击方面效果不佳。"

Chin 补充说,LLM 防火墙不仅仅是为了确保 AI 安全 - 它们也用于 AI 安全性,以防止模型幻觉和产生有偏见和有害的输出。它们还可以防范通过人类语言和提示而不是代码执行的新一代攻击。

专家组还探讨了通用 LLM 防火墙是否能够在所有行业中有效运作,还是需要定制化的问题。

Liew 特别提到了 AI Singapore 与政府机构的转录项目,其中语音转文本引擎根据每个机构的需求进行了微调。他说,同样地,LLM 防火墙应该经过精心设计,以处理医疗保健和金融服务等特定场景。

在实施 LLM 防火墙方面,Jia 提倡采用包括输入检测、模型调优和输出过滤的多层次方法。

"输入检测在提示输入模型之前检测恶意输入,模型调优确保输出与人类价值观一致,输出过滤检测有害输出,"Jia 说,同时他也承认在安全性和可用性之间取得平衡是一个挑战,呼吁采用能够应对不断演变的攻击的自适应防御措施。

测试和基准测试对于确保 LLM 及其防火墙按预期工作至关重要。Chin 表示这个领域仍在发展中,需要完成的工作将取决于测试用例,并与防火墙将部署的行业(无论是银行还是医疗保健)保持一致。他指出 Meta 的 CyberSecEval 和新加坡的 AI Verify 是可以帮助支持测试和基准测试工作的示例。

Liew 强调了在构建和测试 LLM 时拥有多元化团队的重要性。他说:"拥有跨不同学科的人才非常重要。确保团队中有了解领域的人。你会惊讶地发现,他们提出的问题是网络安全工程师从未想到的。"

关于 LLM 防火墙是否会阻碍 AI 创新,Chin 表示,随着模型上下文协议 (MCP) 等新兴技术的采用 - 这是 Anthropic 开发的一个开放标准,允许 AI 代理与其他应用程序和数据源通信 - AI 代理可能会绕过 LLM 防火墙并开始与其他代理通信。他补充说:"我们必须让创新蓬勃发展,并继续建立应对挑战的敏捷性。"

Chin 表示,LLM 防火墙将继续发展,这是由代理式 AI 框架的兴起推动的,组织,特别是大型企业和政府,将需要某种形式的防护机制或防火墙。就像网络防火墙现在包括 Web 应用防火墙和终端防火墙一样,他指出 LLM 防火墙可以采用部署在安全控制点和终端的硬件或软件形式。

来源:Computer Weekly

0赞

好文章,需要你的鼓励

2025

04/07

11:49

分享

点赞

邮件订阅