Grafbase网关0.38.0版本发布:增强型子图安全与数据派生能力
Grafbase是一个开源的GraphQL网关项目,旨在为开发者提供高性能、可扩展的GraphQL API服务。该项目通过聚合多个数据源(子图)并提供一个统一的GraphQL接口,简化了复杂数据系统的构建过程。最新发布的0.38.0版本带来了多项重要改进,特别是在安全配置和数据派生能力方面的增强。
子图级mTLS配置支持
0.38.0版本引入了针对每个子图的独立mTLS(双向TLS)配置能力,这是企业级安全特性的重要补充。mTLS不仅验证服务器身份,还要求客户端提供证书进行身份验证,为服务间通信提供了更强的安全保障。
开发者现在可以为每个子图配置:
- 根CA证书或证书链(通过
root.certificate指定路径) - 客户端身份文件(包含PEM编码的证书和PKCS#8格式私钥)
- 开发环境专用的
allow_invalid_certs标志
特别值得注意的是,当使用自签名证书时,证书的SAN(Subject Alternative Name)扩展必须包含主机名信息。此外,私钥格式支持RSA、SEC1椭圆曲线和PKCS#8标准,为不同安全需求提供了灵活性。
增强的@derive指令功能
数据派生是GraphQL API设计中的重要模式,0.38.0版本对@derive指令进行了显著增强:
-
列表派生支持:现在可以直接派生关联数据集合,例如
comments: [Comment!]! @derive会自动根据commentIds列表获取所有关联评论。 -
显式映射控制:通过结合
@is指令,可以实现精确的字段映射控制。例如:comments: [Comment!]! @derive @is(field: "commentIds[{ id: . }]")这种语法特别适合处理复合键场景,如多仓库库存管理系统中的关联查询。
-
完整功能支持:派生字段现在全面支持
skip/include指令、授权规则和连接查询,确保了功能完整性。
查询引擎与核心架构改进
底层查询引擎针对派生字段进行了多项优化:
- 改进了查询计划生成逻辑,确保
@is指令定义的派生字段能正确解析 - 增强了序列化/反序列化处理,保证派生字段与原始数据的正确对应
- 完善了
skip/include指令在派生上下文中的处理逻辑
这些改进使得派生字段在查询计划中的行为更加可预测,性能更优。
灵活的CORS配置
跨域资源共享(CORS)配置获得了更强大的模式匹配能力:
- 支持glob模式匹配(如
https://*.example.com) - 保持向后兼容的同时,新增
"*"通配符支持 - 简化了单一起源的配置语法
这使得API网关能够更灵活地适应各种前端部署场景,从开发环境到生产环境都能提供恰当的跨域策略。
多平台Docker支持
构建系统现在生成了包含arm64架构的Docker镜像,这意味着:
- 开发者可以在苹果M系列芯片的Mac上获得更好的本地开发体验
- 服务器部署可以充分利用ARM架构的能效优势
- 统一了不同硬件平台上的部署体验
总结
Grafbase网关0.38.0版本通过引入子图级mTLS配置、增强的派生字段功能以及灵活的CORS策略,显著提升了安全性和开发体验。这些改进特别适合以下场景:
- 需要严格服务间认证的微服务架构
- 复杂数据关系的GraphQL API设计
- 多环境部署的前后端分离应用
对于现有用户,建议特别关注派生字段新语法带来的简化效果,以及mTLS配置对企业安全合规的帮助。新用户可以借此版本体验现代GraphQL网关在API聚合和安全方面的完整能力。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00