Apollo Router v1.61.6 版本发布:JWT 指标修复与 Redis 连接优化
Apollo Router 是一个高性能的 GraphQL 网关,用于构建和管理 GraphQL API 的联邦架构。作为 Apollo GraphQL 生态系统中的核心组件,它提供了请求路由、查询规划、缓存管理等功能,帮助开发者构建可扩展的 GraphQL 服务。
JWT 认证指标修复
本次发布修复了 JWT 认证指标 apollo.router.operations.authentication.jwt 的行为问题。根据 GraphQL 规范,这个计数器指标应该记录所有使用 JWT 的请求,并通过 authentication.jwt.failed 属性区分成功和失败的认证。在之前的版本中,该指标仅用于记录失败的认证尝试,这导致了监控数据的不完整。
同时,项目中存在一个名为 apollo.router.operations.jwt 的旧指标,它仅记录成功的认证,现在已被标记为弃用。开发者应该迁移到新的标准化指标以获得更全面的认证监控数据。
Redis 连接泄漏修复
在热重载过程中,Router 会创建新的内部实例并逐步淘汰旧实例。v1.61.6 版本修复了一个关键问题:旧实例中的 Redis 连接未能正确关闭,导致连接数不断增加并消耗内存资源。
为了帮助监控 Redis 连接状态,本次更新新增了 apollo.router.cache.redis.connections 指标,这是一个上下计数器,可以跟踪活跃的 Redis 连接数。该指标包含 kind 标签,用于区分不同类型的 Redis 连接池,与其他缓存指标(如 apollo.router.cache.hit.time)保持一致。
GraphQL 响应解析改进
在处理协处理器返回的 GraphQL 响应时,Router 现在完全遵循 GraphQL 规范。当协处理器返回包含执行错误的响应时(如 {"data": null, "errors": [...]}),Router 将保留完整的响应结构,而不再移除 data: null 字段。这一改进确保了与 GraphQL 规范的完全兼容性。
批处理指标精度提升
apollo.router.operations.batching.size 指标现在能够准确反映 GraphQL 请求批处理的大小。之前的版本偶尔会返回分数值,这在统计批处理大小时是不合理的。新版本确保了该指标始终返回整数数值,提供更精确的批处理规模监控数据。
配置增强:HTTP 头读取超时
v1.61.6 版本新增了 server.http.header_read_timeout 配置选项,允许开发者自定义 HTTP 头读取的超时时间。默认值为 10 秒,与之前的硬编码值保持一致。对于需要处理慢速客户端的场景,可以适当延长这个超时时间:
server:
http:
header_read_timeout: 30s
订阅验证改进
根据最新的 GraphQL 规范 RFC,Router 现在会在验证阶段拒绝那些在订阅根字段上使用 @skip 或 @include 指令的查询。这些指令可能导致订阅在运行时无效,提前在验证阶段拦截这类查询有助于提高系统的健壮性。
Apollo Router v1.61.6 通过这些改进和修复,进一步提升了系统的稳定性、监控能力和规范合规性,为开发者提供了更可靠的 GraphQL 网关服务。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00