Higress AI-Proxy 插件代理 Gemini 服务认证问题分析与解决方案
问题背景
在 Higress 网关项目中,AI-Proxy 插件作为人工智能服务的代理组件,为开发者提供了统一接入多种 AI 模型的能力。近期有开发者反馈,在使用 AI-Proxy 插件代理 Google Gemini 服务时遇到了认证失败的问题,具体表现为返回 401 未授权错误。
问题现象
开发者配置 AI-Proxy 插件代理 Gemini 服务后,通过 Higress 网关发送请求时收到如下错误响应:
{
"error": {
"code": 401,
"message": "Request had invalid authentication credentials...",
"status": "UNAUTHENTICATED"
}
}
值得注意的是,当开发者直接使用相同的 API Key 调用 Gemini 官方接口时,请求能够正常返回结果。此外,当切换到其他兼容接口时,相同的配置也能正常工作。
问题分析
经过技术团队深入排查,发现问题根源在于请求头处理机制上。Gemini 服务的认证机制与其他 AI 服务有所不同:
-
认证方式差异:Gemini 官方接口要求使用
x-goog-api-key
请求头传递 API Key,而 Higress 网关默认会在请求中添加Authorization: Bearer
头。 -
请求头冲突:当 AI-Proxy 插件转发请求到 Gemini 服务时,保留了原始的
Authorization
头,而 Gemini 服务端会严格校验请求头,发现不支持的认证方式后直接返回 401 错误。 -
兼容性问题:其他兼容接口能够正常工作是因为它对请求头的处理更为宽松,而 Gemini 服务则对认证方式有更严格的要求。
解决方案
针对这一问题,Higress 技术团队采取了以下解决方案:
-
请求头优化:在 AI-Proxy 插件处理 Gemini 服务请求时,主动移除原始请求中的
Authorization
头,避免与 Gemini 服务的认证机制产生冲突。 -
版本更新:团队发布了更新后的 AI-Proxy 插件镜像(higress-registry.cn-hangzhou.cr.aliyuncs.com/plugins/ai-proxy:latest),其中包含了针对 Gemini 服务的特殊处理逻辑。
-
配置建议:开发者在使用 AI-Proxy 代理 Gemini 服务时,无需在客户端请求中添加
Authorization
头,插件会自动处理认证信息的传递。
验证结果
更新后的 AI-Proxy 插件经测试已能正常代理 Gemini 服务。测试请求示例如下:
curl --location --request POST 'http://localhost:10000/v1/chat/completions' \
--header 'Content-Type: application/json' \
--data-raw '{
"model": "gemini-2.0-flash",
"messages": [
{
"role": "user",
"content": "你好,你是谁?"
}
],
"stream": false
}'
成功返回结果:
{
"id": "chatcmpl-796e4c33-b39b-4dbe-a8b7-b4dd7b7d1cdc",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "我是一个大型语言模型,由 Google 训练。\n"
},
"finish_reason": "stop"
}
],
"created": 1746930262,
"model": "gemini-2.0-flash",
"object": "chat.completion",
"usage": {
"prompt_tokens": 5,
"completion_tokens": 12,
"total_tokens": 17
}
}
总结
本次问题排查体现了 Higress 项目对不同 AI 服务认证机制的适配能力。通过分析 Gemini 服务的特殊认证要求,技术团队优化了 AI-Proxy 插件的请求处理逻辑,确保了服务的兼容性和稳定性。这也为开发者提供了更统一、便捷的多模型接入体验,无需关心底层不同服务的认证差异。
对于开发者而言,只需关注业务逻辑的实现,而复杂的认证适配工作则由 Higress 网关自动完成,这大大降低了集成多个人工智能服务的复杂度。
- DDeepSeek-V3.1-BaseDeepSeek-V3.1 是一款支持思考模式与非思考模式的混合模型Python00
- QQwen-Image-Edit基于200亿参数Qwen-Image构建,Qwen-Image-Edit实现精准文本渲染与图像编辑,融合语义与外观控制能力Jinja00
GitCode-文心大模型-智源研究院AI应用开发大赛
GitCode&文心大模型&智源研究院强强联合,发起的AI应用开发大赛;总奖池8W,单人最高可得价值3W奖励。快来参加吧~042CommonUtilLibrary
快速开发工具类收集,史上最全的开发工具类,欢迎Follow、Fork、StarJava04GitCode百大开源项目
GitCode百大计划旨在表彰GitCode平台上积极推动项目社区化,拥有广泛影响力的G-Star项目,入选项目不仅代表了GitCode开源生态的蓬勃发展,也反映了当下开源行业的发展趋势。06GOT-OCR-2.0-hf
阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00openHiTLS
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!C0300- WWan2.2-S2V-14B【Wan2.2 全新发布|更强画质,更快生成】新一代视频生成模型 Wan2.2,创新采用MoE架构,实现电影级美学与复杂运动控制,支持720P高清文本/图像生成视频,消费级显卡即可流畅运行,性能达业界领先水平Python00
- GGLM-4.5-AirGLM-4.5 系列模型是专为智能体设计的基础模型。GLM-4.5拥有 3550 亿总参数量,其中 320 亿活跃参数;GLM-4.5-Air采用更紧凑的设计,拥有 1060 亿总参数量,其中 120 亿活跃参数。GLM-4.5模型统一了推理、编码和智能体能力,以满足智能体应用的复杂需求Jinja00
Yi-Coder
Yi Coder 编程模型,小而强大的编程助手HTML013
热门内容推荐
最新内容推荐
项目优选









