跳到主要内容

代理 Gemini 请求

Google Gemini 提供了一个 OpenAI 兼容的 API,允许你使用熟悉的 OpenAI API 格式访问 Gemini 模型。

本指南展示了如何使用 ai-proxy 插件将 APISIX 与 Google Gemini 集成。将 provider 设置为 gemini 后,你无需设置自定义端点。

前置条件

  • 安装 Docker
  • 安装 cURL 以向服务发送请求进行验证。
  • 按照 快速入门教程 在 Docker 或 Kubernetes 中启动一个新的 APISIX 实例。

获取 Google API 密钥

按照 Google AI Studio 创建帐户和 API 密钥。你可以选择将密钥保存到环境变量:

export GEMINI_API_KEY=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx  # 替换为你的 API 密钥

创建到 Gemini 的路由

创建一个带有 ai-proxy 插件的路由,如下所示:

curl "http://127.0.0.1:9180/apisix/admin/routes" -X PUT -d '{
"id": "gemini-chat",
"uri": "/anything",
"plugins": {
"ai-proxy": {
// Annotate 1
"provider": "gemini",
"auth": {
"header": {
// Annotate 2
"Authorization": "Bearer '"$GEMINI_API_KEY"'"
}
},
// Annotate 3
"options": {
"model": "gemini-2.5-flash"
}
}
}
}'

❶ 将提供商设置为 gemini

❷ 使用 Authorization 标头附加 Google API 密钥。

❸ 设置 Gemini 支持的模型,例如 gemini-2.5-flash

验证

向路由发送带有以下提示的请求:

curl "http://127.0.0.1:9080/anything" -X POST \
-H "Content-Type: application/json" \
-d '{
"messages": [
{ "role": "system", "content": "You are a helpful AI assistant" },
{ "role": "user", "content": "What is the capital of France?" }
]
}'

你应该收到类似以下的响应:

{
"choices": [
{
"finish_reason": "stop",
"index": 0,
"message": {
"content": "The capital of France is **Paris**.",
"role": "assistant"
}
}
],
"model": "gemini-2.5-flash",
"object": "chat.completion",
"usage": {
"completion_tokens": 8,
"prompt_tokens": 15,
"total_tokens": 41
},
...
}

下一步

你现在已经学会了如何将 APISIX 与 Google Gemini 集成。请参阅 Google AI for Developers模型 页面以了解更多详细信息。

如果你想流式传输响应,请在请求中启用流式传输,并使用 proxy-buffering 插件来禁用 NGINX 的 proxy_buffering 指令,以避免缓冲服务器发送事件 (SSE)。