Microcks Helm Chart 新增 Gateway API 支持的技术解析
在 Kubernetes 生态系统中,服务网格和 API 网关技术正在快速发展。Microcks 作为一款优秀的 API 模拟和测试工具,其 Helm Chart 近期新增了对 Gateway API 的支持,这标志着该项目在云原生技术栈中的进一步成熟。
传统 Ingress 与 Gateway API 的演进
传统上,Microcks 使用 Kubernetes Ingress 资源来处理入口流量。Ingress 作为 Kubernetes 最早的入口解决方案,虽然简单易用,但在功能扩展性和灵活性方面存在局限。Gateway API 作为新一代标准,提供了更丰富的路由功能和更清晰的职责分离模型。
Gateway API 通过引入 GatewayClass、Gateway 和 Route 等资源,实现了控制平面和数据平面的解耦。这种架构允许集群管理员和应用程序开发者各司其职,同时支持更复杂的流量管理场景。
Microcks 的 Gateway API 实现方案
Microcks 1.12.x 版本开始支持通过 Helm Chart 配置使用 HTTPRoute 替代传统 Ingress。这一变化为用户提供了更多选择,特别是对于那些已经采用 Gateway API 标准的 Kubernetes 环境。
实现上,Microcks 通过 Helm 参数控制资源生成逻辑。当启用 gatewayRoutes 选项时,Chart 会创建 HTTPRoute 资源而非 Ingress 资源。这种设计保持了向后兼容性,同时为进阶用户提供了更现代的替代方案。
GRPC 流量处理的考量
对于 GRPC 流量,Microcks 团队面临一个技术决策点。传统方案中,GRPC 可以通过 Ingress 配合 TLS 透传实现安全通信。但在 Gateway API 环境下,当前规范对 TLS 透传的支持尚不完善。
经过技术评估,团队决定采用 GRPCRoute 资源来处理 GRPC 流量。这一选择虽然需要在网关层面处理 TLS 终止(而非在 Pod 层面),但提供了更好的规范兼容性和未来发展空间。这种调整也反映了云原生技术栈中安全边界的最佳实践演进。
部署配置示例
在实际部署时,用户可以通过以下 Helm 命令启用 Gateway API 支持:
helm install microcks ./microcks --namespace microcks \
--set microcks.url=microcks.127.0.0.1.nip.io \
--set keycloak.url=keycloak.127.0.0.1.nip.io \
--set keycloak.privateUrl=http://microcks-keycloak.microcks.svc.cluster.local:8080 \
--set ingresses=false \
--set gatewayRoutes=true \
--set gatewayRefNamespace=default
这一配置明确指定了使用 Gateway API 路由,并关联到指定命名空间中的 Gateway 资源。对于需要 GRPC 支持的环境,用户还需额外配置 TLS 证书等相关参数。
技术展望
随着 Gateway API 规范的不断成熟,Microcks 计划进一步完善其支持,包括对 TLSRoute 等高级功能的集成。这一演进方向与 Kubernetes 社区的整体趋势保持一致,将为用户带来更强大、更灵活的 API 管理能力。
对于已经采用或计划采用 Gateway API 的组织来说,Microcks 的这一更新提供了平滑过渡的技术路径,使其能够在不中断现有服务的情况下,逐步迁移到更现代的入口管理方案。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00