Kong网关中基于IP地址的速率限制问题解析
在Kong网关的实际使用中,开发人员经常会遇到一个典型问题:当配置了IP地址为基础的速率限制功能时,系统并没有按照预期使用真实的客户端IP地址作为限制标识,而是错误地使用了最后一个中间服务器的IP地址。这种情况在Kong 2.8.0和3.7.x版本中都存在。
问题现象分析
当Kong网关配置了以下参数时:
- trusted_ips设置为0.0.0.0/0和::/0
- real_ip_header设置为X-Forwarded-For
- real_ip_recursive设置为on
理论上,系统应该能够正确识别并提取HTTP请求头中的X-Forwarded-For字段值作为客户端的真实IP地址。然而实际测试发现,Kong的PDK方法kong.client.get_forwarded_ip返回的却是最后一个中间服务器的IP地址,而非真实的客户端IP。
通过调试信息可以清楚地看到这一现象:
x-debug-info: {
"kong_client_get_forwarded_ip":"10.0.70.198",
"ngx_var_realip_remote_addr":"10.0.70.198",
"ngx_var_http_x_forwarded_for":"2001:420:c0c8:1009::407"
}
其中,10.0.70.198是中间服务器IP,而2001:420:c0c8:1009::407才是真实的客户端IP。
技术原理探究
深入分析Kong的源代码发现,kong.client.get_forwarded_ip方法实际上是从Nginx变量ngx.var.remote_addr获取IP地址。这种实现方式存在明显缺陷,因为在多层架构中,remote_addr变量只能反映与Kong直接连接的上一跳IP地址,无法正确识别原始客户端IP。
正确的实现应该优先考虑从X-Forwarded-For这样的HTTP头中提取IP地址,特别是在配置了real_ip_header和real_ip_recursive的情况下。这些配置项的本意就是让系统能够识别并信任传递的原始客户端IP信息。
解决方案验证
经过测试,在Kong的最新主分支版本中,这个问题已经得到修复。测试结果表明:
- kong.client.get_forwarded_ip现在能够正确返回X-Forwarded-For头中的IP地址
- 系统行为与配置的real_ip_header和real_ip_recursive参数保持一致
- 速率限制功能现在能够基于真实的客户端IP进行控制
对于仍在使用旧版本的用户,建议升级到最新版本以获得正确的IP识别功能。如果暂时无法升级,可以考虑自定义插件或修改现有插件逻辑,直接从X-Forwarded-For头中提取IP地址作为速率限制的标识符。
最佳实践建议
在实际生产环境中部署Kong网关时,针对IP地址识别和速率限制功能,建议采取以下措施:
- 确保使用最新稳定版本的Kong网关
- 合理配置trusted_ips范围,避免过度开放信任
- 对于多层架构,正确设置real_ip_header和real_ip_recursive参数
- 在关键业务场景中,添加调试头信息验证IP识别结果
- 定期测试速率限制功能,确保其按预期工作
通过以上措施,可以确保Kong网关的速率限制功能基于正确的客户端IP地址,有效防止滥用行为,同时不影响正常用户的访问体验。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C050
MiniMax-M2.1从多语言软件开发自动化到复杂多步骤办公流程执行,MiniMax-M2.1 助力开发者构建下一代自主应用——全程保持完全透明、可控且易于获取。Python00
kylin-wayland-compositorkylin-wayland-compositor或kylin-wlcom(以下简称kywc)是一个基于wlroots编写的wayland合成器。 目前积极开发中,并作为默认显示服务器随openKylin系统发布。 该项目使用开源协议GPL-1.0-or-later,项目中来源于其他开源项目的文件或代码片段遵守原开源协议要求。C01
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
agent-studioopenJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力TSX0126
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00