ASP.NET Core OpenAPI 中 List<List<string>> 类型引用的生成问题解析
在 ASP.NET Core 项目中,当使用 OpenAPI 规范来描述 API 时,开发者可能会遇到一个关于复杂类型引用的生成问题。本文将深入分析这个问题及其解决方案。
问题现象
当我们在 ASP.NET Core 项目中定义一个包含多个 List<List> 类型属性的模型时,OpenAPI 文档生成器会为第二个相同类型的属性生成一个无效的相对引用。例如,考虑以下模型定义:
public record DynamicTableDataPatch()
{
public List<List<string>> Delete { get; set; } = [];
public List<List<string>> AddOrUpdate { get; set; } = [];
}
生成的 OpenAPI 文档中,第二个属性 AddOrUpdate 的引用格式不正确,导致 Swagger UI 等工具无法正确解析。
技术背景
这个问题源于 System.Text.Json 的 GetSchemaAsJsonNode API 在处理重复类型时的行为。当遇到已经在类型层次结构中见过的类型时,它会生成相对引用来"重用"之前生成的模式。这种设计原本是为了减少文档体积,但在 OpenAPI 规范中却导致了兼容性问题。
根本原因
-
相对引用问题:System.Text.Json 生成的相对引用格式与 OpenAPI.NET 库的 v1.6 版本不兼容,后者无法正确处理这种引用格式。
-
类型重用机制:对于相同类型的多个属性,生成器试图重用模式定义,但引用路径处理不当。
解决方案
微软团队已经针对这个问题提供了两种解决方案:
-
短期修复:在 ASP.NET Core 9.0.4 版本中,通过在处理流程中展开相对引用来解决这个问题。这个修复确保了生成的 OpenAPI 文档能够被标准工具正确解析。
-
长期方案:从 .NET 10 开始,将依赖底层 Microsoft.OpenApi 库的改进来处理这类引用问题,提供更原生的支持。
临时解决方案
对于急需解决此问题的开发者,可以采用以下临时方案:
// 自定义端点处理生成的 OpenAPI 文档
app.MapGet("/openapi.json", async (HttpRequest request) =>
{
var response = await HttpClient.GetAsync($"{request.Scheme}://{request.Host}/openapiErr.json");
var jsonContent = await response.Content.ReadAsStringAsync();
// 手动修复引用路径
jsonContent = jsonContent.Replace("#/properties/delete/items", "DynamicTableDataPatch/properties/delete/items");
return Results.Json(JsonNode.Parse(jsonContent)?.AsObject());
});
最佳实践
-
对于生产环境,建议升级到包含修复的 ASP.NET Core 版本。
-
在设计 API 模型时,如果可能,可以考虑为重复的复杂类型创建单独的类型定义,这不仅能避免这个问题,还能提高代码的可读性。
-
定期检查 OpenAPI 文档生成结果,确保其符合规范并能被常用工具正确解析。
总结
这个问题展示了在 API 文档自动生成过程中类型处理和引用解析的复杂性。微软团队已经提供了明确的解决方案路径,开发者可以根据自身情况选择升级版本或应用临时解决方案。理解这类问题的本质有助于开发者更好地设计 API 模型和排查文档生成问题。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00