Grafbase网关0.38.0版本发布:增强型子图安全与数据派生能力
Grafbase是一个开源的GraphQL网关项目,旨在为开发者提供高性能、可扩展的GraphQL API服务。该项目通过聚合多个数据源(子图)并提供一个统一的GraphQL接口,简化了复杂数据系统的构建过程。最新发布的0.38.0版本带来了多项重要改进,特别是在安全配置和数据派生能力方面的增强。
子图级mTLS配置支持
0.38.0版本引入了针对每个子图的独立mTLS(双向TLS)配置能力,这是企业级安全特性的重要补充。mTLS不仅验证服务器身份,还要求客户端提供证书进行身份验证,为服务间通信提供了更强的安全保障。
开发者现在可以为每个子图配置:
- 根CA证书或证书链(通过
root.certificate指定路径) - 客户端身份文件(包含PEM编码的证书和PKCS#8格式私钥)
- 开发环境专用的
allow_invalid_certs标志
特别值得注意的是,当使用自签名证书时,证书的SAN(Subject Alternative Name)扩展必须包含主机名信息。此外,私钥格式支持RSA、SEC1椭圆曲线和PKCS#8标准,为不同安全需求提供了灵活性。
增强的@derive指令功能
数据派生是GraphQL API设计中的重要模式,0.38.0版本对@derive指令进行了显著增强:
-
列表派生支持:现在可以直接派生关联数据集合,例如
comments: [Comment!]! @derive会自动根据commentIds列表获取所有关联评论。 -
显式映射控制:通过结合
@is指令,可以实现精确的字段映射控制。例如:comments: [Comment!]! @derive @is(field: "commentIds[{ id: . }]")这种语法特别适合处理复合键场景,如多仓库库存管理系统中的关联查询。
-
完整功能支持:派生字段现在全面支持
skip/include指令、授权规则和连接查询,确保了功能完整性。
查询引擎与核心架构改进
底层查询引擎针对派生字段进行了多项优化:
- 改进了查询计划生成逻辑,确保
@is指令定义的派生字段能正确解析 - 增强了序列化/反序列化处理,保证派生字段与原始数据的正确对应
- 完善了
skip/include指令在派生上下文中的处理逻辑
这些改进使得派生字段在查询计划中的行为更加可预测,性能更优。
灵活的CORS配置
跨域资源共享(CORS)配置获得了更强大的模式匹配能力:
- 支持glob模式匹配(如
https://*.example.com) - 保持向后兼容的同时,新增
"*"通配符支持 - 简化了单一起源的配置语法
这使得API网关能够更灵活地适应各种前端部署场景,从开发环境到生产环境都能提供恰当的跨域策略。
多平台Docker支持
构建系统现在生成了包含arm64架构的Docker镜像,这意味着:
- 开发者可以在苹果M系列芯片的Mac上获得更好的本地开发体验
- 服务器部署可以充分利用ARM架构的能效优势
- 统一了不同硬件平台上的部署体验
总结
Grafbase网关0.38.0版本通过引入子图级mTLS配置、增强的派生字段功能以及灵活的CORS策略,显著提升了安全性和开发体验。这些改进特别适合以下场景:
- 需要严格服务间认证的微服务架构
- 复杂数据关系的GraphQL API设计
- 多环境部署的前后端分离应用
对于现有用户,建议特别关注派生字段新语法带来的简化效果,以及mTLS配置对企业安全合规的帮助。新用户可以借此版本体验现代GraphQL网关在API聚合和安全方面的完整能力。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust085- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00