使用Docker Compose在本地运行Solo.io Gloo Gateway
前言
Solo.io Gloo Gateway是一个功能强大的API网关,通常部署在Kubernetes环境中。然而,对于开发测试场景或学习目的,开发者可能希望在本地环境中快速启动Gloo Gateway。本文将详细介绍如何使用Docker Compose在本地机器上运行Gloo Gateway,无需Kubernetes集群。
核心概念解析
在深入部署之前,我们需要理解几个关键概念:
-
Gloo Gateway架构:由控制平面(Gloo)和数据平面(Envoy)组成,控制平面负责配置管理,数据平面处理实际流量
-
Upstream:代表Gloo Gateway可以路由到的目标服务,包含服务地址和可用API信息
-
Virtual Service:定义路由规则,指定如何将入站请求映射到Upstream
-
本地文件存储:当不使用Kubernetes时,Gloo Gateway可以使用本地文件系统替代Kubernetes的ConfigMap和Secret
环境准备
软件要求
在开始之前,请确保您的系统已安装:
- Docker 18.06或更高版本
- Docker Compose 1.25.0或更高版本
获取部署文件
部署所需的文件结构如下:
docker-compose-file/
├── source_data/ # 初始配置文件
│ ├── config/ # 网关配置
│ ├── envoy-config.yaml # Envoy配置
│ └── gloo-system/ # 系统配置
├── docker-compose.yaml # 容器编排定义
└── prepare-directories.sh # 目录准备脚本
详细部署步骤
1. 初始化目录结构
运行准备脚本创建必要的目录结构:
./prepare-directories.sh
该脚本会创建data目录,其中包含:
config/:存储所有Gloo配置secret/:存储敏感信息artifact/:存储运行时生成的文件
2. 关键配置文件解析
gloo-system/default.yaml:定义Gloo Gateway的基本配置,包括:
- 配置存储位置
- 密钥存储位置
- 监控设置
envoy-config.yaml:配置Envoy代理的行为,包括:
- 监听端口
- 访问日志
- 管理接口
3. 启动服务
使用Docker Compose启动服务:
docker-compose up
这会启动三个核心服务:
- petstore:示例应用,提供REST API
- gloo:Gloo控制平面
- gateway-proxy:基于Envoy的数据平面
配置详解
Upstream配置
Petstore的Upstream配置(petstore.yaml)定义了:
- 服务地址(petstore:8080)
- Swagger API文档位置
- REST接口转换规则
static:
hosts:
- addr: petstore
port: 8080
serviceSpec:
rest:
swaggerInfo:
url: http://petstore:8080/swagger.json
transformations:
# 各API端点定义
Virtual Service配置
默认Virtual Service(default.yaml)定义了路由规则:
virtualHost:
domains: ['*']
routes:
- matchers: [{exact: /petstore}]
options: {prefixRewrite: /api/pets}
routeAction:
single: {upstream: {name: petstore, namespace: gloo-system}}
这条规则表示:
- 匹配精确路径
/petstore - 重写前缀为
/api/pets - 路由到petstore upstream
功能验证
测试基本路由
curl http://localhost:8080/petstore
预期响应:
[{"id":1,"name":"Dog","status":"available"},{"id":2,"name":"Cat","status":"pending"}]
测试函数路由
curl http://localhost:8080/petstore/findWithId/1
预期响应:
{"id":1,"name":"Dog","status":"available"}
生产环境注意事项
本文描述的部署方式适合本地开发和测试,生产环境应考虑:
- 使用更可靠的存储后端(如Consul/Vault)
- 配置高可用架构
- 实施适当的监控和日志收集
- 加强安全配置
进阶学习建议
掌握基础部署后,可以进一步探索:
- 添加身份验证和授权
- 配置流量控制和限流
- 实现金丝雀发布
- 设置监控和告警
通过本地Docker Compose部署,开发者可以快速体验Gloo Gateway的核心功能,为后续在生产环境中的部署奠定基础。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00