ai-prompt-guard
ai-prompt-guard 插件通过检查和验证传入的提示词消息来保护你的 LLM 端点。它根据用户定义的允许和拒绝模式检查请求内容,确保只有批准的输入被转发到上游 LLM。根据配置,该插件可以仅检查最新消息或整个对话历史记录,并且可以设置为检查所有角色的提示词或仅检查最终用户的提示词。
当同时配置了 allow_patterns 和 deny_patterns 时,插件首先确保至少匹配一个 allow_patterns。如果没有匹配,请求将被拒绝。如果匹配了允许模式,它会接着检查是否出现了拒绝模式。
示例
以下示例将使用 OpenAI 作为上游服务提供商。在开始之前,请创建一个 OpenAI 账号 并获取 API Key。你可以选择将密钥保存到环境变量中,如下所示:
export OPENAI_API_KEY=<YOUR_OPENAI_API_KEY> # 替换为你的 API 密钥
如果你使用其他 LLM 提供商,请参考该提供商的文档获取 API Key。