Higress AI-Proxy 插件代理 Gemini 服务认证问题分析与解决方案
问题背景
在 Higress 网关项目中,AI-Proxy 插件作为人工智能服务的代理组件,为开发者提供了统一接入多种 AI 模型的能力。近期有开发者反馈,在使用 AI-Proxy 插件代理 Google Gemini 服务时遇到了认证失败的问题,具体表现为返回 401 未授权错误。
问题现象
开发者配置 AI-Proxy 插件代理 Gemini 服务后,通过 Higress 网关发送请求时收到如下错误响应:
{
"error": {
"code": 401,
"message": "Request had invalid authentication credentials...",
"status": "UNAUTHENTICATED"
}
}
值得注意的是,当开发者直接使用相同的 API Key 调用 Gemini 官方接口时,请求能够正常返回结果。此外,当切换到其他兼容接口时,相同的配置也能正常工作。
问题分析
经过技术团队深入排查,发现问题根源在于请求头处理机制上。Gemini 服务的认证机制与其他 AI 服务有所不同:
-
认证方式差异:Gemini 官方接口要求使用
x-goog-api-key请求头传递 API Key,而 Higress 网关默认会在请求中添加Authorization: Bearer头。 -
请求头冲突:当 AI-Proxy 插件转发请求到 Gemini 服务时,保留了原始的
Authorization头,而 Gemini 服务端会严格校验请求头,发现不支持的认证方式后直接返回 401 错误。 -
兼容性问题:其他兼容接口能够正常工作是因为它对请求头的处理更为宽松,而 Gemini 服务则对认证方式有更严格的要求。
解决方案
针对这一问题,Higress 技术团队采取了以下解决方案:
-
请求头优化:在 AI-Proxy 插件处理 Gemini 服务请求时,主动移除原始请求中的
Authorization头,避免与 Gemini 服务的认证机制产生冲突。 -
版本更新:团队发布了更新后的 AI-Proxy 插件镜像(higress-registry.cn-hangzhou.cr.aliyuncs.com/plugins/ai-proxy:latest),其中包含了针对 Gemini 服务的特殊处理逻辑。
-
配置建议:开发者在使用 AI-Proxy 代理 Gemini 服务时,无需在客户端请求中添加
Authorization头,插件会自动处理认证信息的传递。
验证结果
更新后的 AI-Proxy 插件经测试已能正常代理 Gemini 服务。测试请求示例如下:
curl --location --request POST 'http://localhost:10000/v1/chat/completions' \
--header 'Content-Type: application/json' \
--data-raw '{
"model": "gemini-2.0-flash",
"messages": [
{
"role": "user",
"content": "你好,你是谁?"
}
],
"stream": false
}'
成功返回结果:
{
"id": "chatcmpl-796e4c33-b39b-4dbe-a8b7-b4dd7b7d1cdc",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "我是一个大型语言模型,由 Google 训练。\n"
},
"finish_reason": "stop"
}
],
"created": 1746930262,
"model": "gemini-2.0-flash",
"object": "chat.completion",
"usage": {
"prompt_tokens": 5,
"completion_tokens": 12,
"total_tokens": 17
}
}
总结
本次问题排查体现了 Higress 项目对不同 AI 服务认证机制的适配能力。通过分析 Gemini 服务的特殊认证要求,技术团队优化了 AI-Proxy 插件的请求处理逻辑,确保了服务的兼容性和稳定性。这也为开发者提供了更统一、便捷的多模型接入体验,无需关心底层不同服务的认证差异。
对于开发者而言,只需关注业务逻辑的实现,而复杂的认证适配工作则由 Higress 网关自动完成,这大大降低了集成多个人工智能服务的复杂度。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00