Swagger UI 中如何设置示例标签为默认显示
在 Swagger UI 的使用过程中,许多开发者发现从某个版本开始,API 文档的响应部分默认显示的是模型/架构(Model/Schema)标签,而不是之前的示例(Examples)标签。这一变化虽然不影响功能,但对于那些更关注实际响应示例而非数据结构的开发者来说,可能会带来一些不便。
问题背景
Swagger UI 是一个流行的 API 文档工具,它能够根据 OpenAPI/Swagger 规范自动生成交互式文档界面。在展示 API 响应时,Swagger UI 提供了多个标签页,主要包括:
- 示例(Examples)标签:展示实际的响应示例数据
- 模型/架构(Model/Schema)标签:展示响应数据的结构定义
在较新版本的 Swagger UI 中,默认会显示模型/架构标签,而许多开发者更习惯或更希望默认显示示例标签,因为示例数据更直观,能更快理解 API 的实际响应格式。
解决方案
要解决这个问题,关键在于理解 Swagger UI 的配置选项。Swagger UI 提供了一个名为 defaultModelRendering 的配置项,它控制着默认显示的标签类型。
配置方法
-
移除默认模型渲染设置:如果你在初始化 Swagger UI 时显式设置了
defaultModelRendering: 'model',这会导致默认显示模型标签。移除这个设置即可恢复默认行为。 -
显式设置示例为默认:虽然 Swagger UI 没有直接提供设置示例为默认的选项,但通过不设置
defaultModelRendering或将其设置为其他值,可以实现示例标签默认显示的效果。
推荐配置
以下是推荐的 Swagger UI 初始化配置:
SwaggerUI({
spec: apiSpec,
defaultModelsExpandDepth: -1,
dom_id: '#container',
showExtensions: true,
deepLinking: true
})
注意这里没有包含 defaultModelRendering 配置项,这样 Swagger UI 会使用其内部默认行为,通常会优先显示示例标签。
技术原理
Swagger UI 的标签显示逻辑是由其内部渲染引擎控制的。defaultModelRendering 配置项接受以下可能的值:
'model':强制默认显示模型标签'example':理论上应该显示示例标签,但在实际测试中效果可能不一致- 不设置或设置为其他值:使用 Swagger UI 的默认行为
在大多数情况下,不设置此选项或将其设置为非 'model' 的值,Swagger UI 会优先显示更用户友好的示例标签。
最佳实践
对于 API 文档开发者,建议:
- 保持配置简洁:除非有特殊需求,否则不要过度配置 Swagger UI
- 测试不同版本:Swagger UI 不同版本可能有细微差异,建议在实际环境中测试配置效果
- 考虑用户习惯:大多数 API 使用者更关注实际示例而非数据结构模型
通过合理配置 Swagger UI,开发者可以创建出既美观又实用的 API 文档界面,提升开发者的使用体验。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust088- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00