VSCode C扩展中Razor文件加载性能问题分析与优化
在最新版本的VSCode C#扩展中,开发者报告了一个关于Razor文件加载时CPU使用率持续偏高的问题。经过深入分析,我们发现这是由于Razor语言服务器在处理虚拟C#文件时触发了过多的LSP didOpen/didClose事件,导致其他语言服务器请求被阻塞。
问题现象
当开发者加载包含Razor文件的项目时,观察到以下现象:
- CPU使用率持续维持在100%左右(在Mac上表现为单核满载)
- 项目加载时间显著延长(从40秒增加到3分钟)
- 代码智能感知功能(如CodeLens)延迟出现
通过性能追踪发现,Razor组件在处理项目文件时,会为每个Razor文件和虚拟C#文件发送LSP didOpen/didClose请求。这些请求在语言服务器协议中具有特殊性质,会阻塞其他请求的执行。
技术分析
深入分析性能日志后,我们发现了几个关键点:
-
路径处理异常:Razor服务器在处理文件路径时出现了重复拼接父目录路径的情况,导致文件查找失败。例如:
/path/to/project/path/to/project/Views/File.cshtml -
请求风暴:每个Razor文件会触发多次虚拟文件发布操作,服务器不断尝试重新发布相同版本的内容:
跳过发布C#版本5,因为请求的是版本1 跳过发布C#版本5,因为请求的是版本2 -
项目信息更新延迟:Razor项目服务在项目加载完成后仍需3分钟左右时间更新所有项目的TagHelpers和C#语言版本信息。
解决方案
开发团队在2.60.26版本中实施了以下优化措施:
-
减少不必要的LSP请求:优化了虚拟文件发布机制,避免重复发送相同内容的发布请求。
-
路径处理规范化:修复了文件路径拼接逻辑,确保路径处理的正确性。
-
异步处理改进:调整了项目信息更新流程,减少对主线程的阻塞。
优化效果
经过这些改进后,实测结果显示:
- MudBlazor项目加载时间从5分钟降至2.5分钟
- 普通项目加载时间减少近50%
- CPU使用率在项目加载完成后迅速恢复正常水平
- 代码智能感知功能响应更加及时
技术启示
这个案例为我们提供了几个重要的技术启示:
-
LSP协议使用:需要谨慎处理didOpen/didClose这类会阻塞其他请求的操作,避免造成请求积压。
-
性能监控:dotnet-trace工具在诊断.NET应用性能问题时非常有效,特别是配合特定事件收集参数时。
-
跨进程协作:在多进程架构中(如C#扩展、Razor服务器、DevKit等),需要特别注意进程间通信的效率影响。
-
渐进式加载:对于大型项目,考虑采用渐进式加载策略,优先处理用户当前需要的功能。
这次优化不仅解决了具体问题,也为后续的架构改进奠定了基础。开发团队正在进行的Razor源生成器工作预计会带来进一步的性能提升。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00