Tapir v1.11.16 版本发布:增强流处理与OpenAPI支持
项目概述
Tapir 是一个基于 Scala 语言的类型安全 HTTP API 定义库,它允许开发者以类型安全的方式定义 HTTP 端点,并自动生成 OpenAPI 文档、客户端代码和服务器端实现。Tapir 的设计理念是将 API 定义与实现分离,支持多种后端(如 Akka HTTP、Http4s、Play 等)和多种序列化格式(如 JSON、XML 等)。
核心改进
1. 流处理增强
本次版本对 stub 解释器返回流时的处理进行了优化。当 stub 解释器返回一个流时,现在会明确指示 stub 后端将其视为原始流处理。这一改进确保了流数据在 stub 环境中的正确处理,为开发者提供了更一致的测试体验。
在 API 测试场景中,流数据处理一直是个挑战。通过这一改进,Tapir 使得在 stub 环境下测试流式 API 变得更加可靠,减少了因流处理不当导致的测试不一致问题。
2. OpenAPI 模式生成修复
修复了当鉴别器字段(discriminator)为枚举类型时的 OpenAPI 模式生成问题。在 OpenAPI 规范中,鉴别器用于多态类型的区分,当这个字段是枚举类型时,之前的版本可能存在生成不正确的问题。
这个修复对于使用继承和多态设计的 API 特别重要。现在,当你的 API 使用枚举作为类型鉴别器时,Tapir 能够正确生成符合 OpenAPI 规范的文档,确保生成的客户端代码和文档都能正确反映 API 的设计意图。
新特性支持
1. Option[T] 类型的 oneOf 派生支持
代码生成现在支持对 Option[T] 类型的 oneOf 派生。oneOf 是 OpenAPI 中表示"多选一"类型的机制,现在可以更好地处理可选的多态类型。
这一特性在处理可选的多态响应时特别有用。例如,当你的 API 可能返回多种不同类型的响应,或者根本不返回时,现在可以更精确地建模这种场景。
2. JSON 响应顶层可空支持
代码生成现在支持 JSON 响应顶层的可空(nullable)类型。这意味着你的 API 可以直接返回 null 作为顶层响应,而代码生成器会正确处理这种情况。
在实际应用中,有些 API 设计会选择在某些情况下直接返回 null 而不是一个空对象。这一改进使得 Tapir 能够更好地支持这类 API 设计模式。
3. text/html 内容类型支持
代码生成现在支持 text/html 内容类型。这使得 Tapir 可以用于生成返回 HTML 内容的端点,扩展了 Tapir 在传统 web 应用中的应用场景。
虽然 Tapir 主要用于 RESTful API 开发,但这一改进使其也能支持一些需要返回 HTML 的传统 web 路由,为混合型应用提供了更好的支持。
验证增强
正则表达式模式验证
现在使用正则表达式进行模式验证。这为字符串验证提供了更强大的能力,允许开发者使用正则表达式来定义复杂的字符串格式要求。
例如,你可以更容易地验证电子邮件格式、特定模式的标识符等。这一改进使得 Tapir 的验证能力更接近 OpenAPI 规范的全部能力。
其他改进
ZIO Prelude 支持
新增了对 zio-prelude 的 CustomNewType/CustomSubType 的支持。对于使用 ZIO 生态系统的开发者来说,这意味着可以更好地与 zio-prelude 的类型系统集成。
依赖更新
项目更新了多个依赖项,包括:
- sbt-scala-native 更新至 0.5.7
- slf4j-api 更新至 2.0.17
- netty-all 更新至 4.1.119.Final
- zio-json 更新至 0.7.35
- magnolia 更新至 1.3.16
这些依赖更新带来了性能改进、bug 修复和新特性支持,同时保持了与现有代码的兼容性。
总结
Tapir v1.11.16 版本在多个方面进行了改进和增强,特别是在流处理、OpenAPI 支持和新类型派生方面。这些改进使得 Tapir 在 API 定义和代码生成方面更加完善和强大。对于现有用户,建议升级以获取这些改进;对于新用户,这个版本展示了 Tapir 在类型安全 API 开发方面的持续进步和成熟。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00