Apollo Router v1.61.6 版本发布:JWT 指标修复与 Redis 连接优化
Apollo Router 是一个高性能的 GraphQL 网关,用于构建和管理 GraphQL API 的联邦架构。作为 Apollo GraphQL 生态系统中的核心组件,它提供了请求路由、查询规划、缓存管理等功能,帮助开发者构建可扩展的 GraphQL 服务。
JWT 认证指标修复
本次发布修复了 JWT 认证指标 apollo.router.operations.authentication.jwt 的行为问题。根据 GraphQL 规范,这个计数器指标应该记录所有使用 JWT 的请求,并通过 authentication.jwt.failed 属性区分成功和失败的认证。在之前的版本中,该指标仅用于记录失败的认证尝试,这导致了监控数据的不完整。
同时,项目中存在一个名为 apollo.router.operations.jwt 的旧指标,它仅记录成功的认证,现在已被标记为弃用。开发者应该迁移到新的标准化指标以获得更全面的认证监控数据。
Redis 连接泄漏修复
在热重载过程中,Router 会创建新的内部实例并逐步淘汰旧实例。v1.61.6 版本修复了一个关键问题:旧实例中的 Redis 连接未能正确关闭,导致连接数不断增加并消耗内存资源。
为了帮助监控 Redis 连接状态,本次更新新增了 apollo.router.cache.redis.connections 指标,这是一个上下计数器,可以跟踪活跃的 Redis 连接数。该指标包含 kind 标签,用于区分不同类型的 Redis 连接池,与其他缓存指标(如 apollo.router.cache.hit.time)保持一致。
GraphQL 响应解析改进
在处理协处理器返回的 GraphQL 响应时,Router 现在完全遵循 GraphQL 规范。当协处理器返回包含执行错误的响应时(如 {"data": null, "errors": [...]}),Router 将保留完整的响应结构,而不再移除 data: null 字段。这一改进确保了与 GraphQL 规范的完全兼容性。
批处理指标精度提升
apollo.router.operations.batching.size 指标现在能够准确反映 GraphQL 请求批处理的大小。之前的版本偶尔会返回分数值,这在统计批处理大小时是不合理的。新版本确保了该指标始终返回整数数值,提供更精确的批处理规模监控数据。
配置增强:HTTP 头读取超时
v1.61.6 版本新增了 server.http.header_read_timeout 配置选项,允许开发者自定义 HTTP 头读取的超时时间。默认值为 10 秒,与之前的硬编码值保持一致。对于需要处理慢速客户端的场景,可以适当延长这个超时时间:
server:
http:
header_read_timeout: 30s
订阅验证改进
根据最新的 GraphQL 规范 RFC,Router 现在会在验证阶段拒绝那些在订阅根字段上使用 @skip 或 @include 指令的查询。这些指令可能导致订阅在运行时无效,提前在验证阶段拦截这类查询有助于提高系统的健壮性。
Apollo Router v1.61.6 通过这些改进和修复,进一步提升了系统的稳定性、监控能力和规范合规性,为开发者提供了更可靠的 GraphQL 网关服务。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00