Rspack 1.2.0 版本深度解析:性能优化与新特性全览
2025-06-04 07:17:15作者:幸俭卉
Rspack 是一个基于 Rust 的高性能前端构建工具,它结合了 Webpack 的生态优势和 Rust 语言的性能特点。在 1.2.0 版本中,Rspack 团队带来了多项重大改进,包括显著的性能提升、持久化缓存支持、编译器构建器初始化等核心功能增强,以及众多错误修复和文档完善。
性能优化全面升级
1.2.0 版本在性能方面做出了多项重要改进:
构建效率提升:
- 忽略 node_modules 目录的文件监听,减少不必要的文件系统操作
- 计算受影响的 chunk graph 模块时采用增量方式,避免全量重建
- 并行化副作用优化处理,充分利用多核 CPU 资源
- 持久化缓存采用多线程处理,提高缓存读写效率
内存优化:
- 减少 CachedSource 的内存消耗
- 优化 rspack-sources 的 substring 操作性能
- 改进大型 JSON 处理的导出标记依赖插件性能
二进制体积优化:
- 移除 tokio-console 减少二进制大小
- 升级 miette 到 v7 版本减小体积
- 移除 Node.js 版本检查器减少 CLI 体积
这些优化使得 Rspack 在大型项目中的构建速度更快,内存占用更低,特别是在增量构建场景下表现尤为突出。
核心新特性解析
持久化缓存支持
1.2.0 版本引入了完整的持久化缓存功能,这是本版本最重要的特性之一:
- 支持将构建结果缓存到文件系统,显著提升重复构建速度
- 缓存存储支持移动锁文件,避免并发问题
- 生产模式下会等待缓存保存完成,确保缓存完整性
- 支持通过 config.mode 和 config.name 使缓存失效
- 添加缓存错误追踪,便于问题排查
- 支持从模块图中重新生成依赖关系
持久化缓存可以大幅减少重复构建时间,特别适合 CI/CD 环境和大型项目开发。
编译器构建器初始化
新版本开始引入编译器选项构建器模式:
- 提供更友好的 API 来初始化编译器选项
- 支持按顺序配置内置插件选项
- 支持 devtool、externals、optimization 等核心配置
- 最终通过 Compiler::builder 方法暴露给用户
这种构建器模式使得配置 Rspack 更加直观和类型安全,为未来的 API 设计奠定了基础。
代码分割优化
代码分割算法得到显著改进:
- 基于模块路径相似性拆分大 chunk
- splitChunks.cacheGroups.filename 支持函数配置
- 支持 optimization.avoidEntryIife 配置避免入口包裹函数
- 引入更快的代码分割算法(实验性)
这些改进使得打包结果更加优化,减少了不必要的代码重复。
其他重要改进
模块系统增强
- 支持 Yarn PnP 工作流
- 添加 exports info 绑定 API
- 支持 module.generator.outputPath 配置
- 改进模块图连接 JS API
- 支持自定义 JSON 类型解析器
错误修复
- 修复外部模块移出初始 chunk 的问题
- 修正 CSS 转义处理
- 修复 assetEmitted 钩子的文件名传递错误
- 修复模块连接中的动态导出信息问题
- 修正 importModule 错误处理
文档完善
- 新增持久化缓存文档
- 完善 LoaderContext API 文档
- 添加 loader API 概览页
- 更新 CLI 文档
- 新增常见问题解答
开发者体验改进
1.2.0 版本还包含多项开发者体验改进:
- 添加 rspack_version 宏获取版本信息
- 支持在 JS 端设置构建信息
- 添加 tracing 工具支持性能分析
- 支持 debug IDs 便于问题追踪
- 改进错误信息和警告提示
总结
Rspack 1.2.0 版本标志着该项目在性能和功能上的重大飞跃。持久化缓存的引入解决了大型项目构建速度的瓶颈问题,编译器构建器的设计为未来的 API 演进打下了良好基础,而全方位的性能优化则进一步巩固了 Rspack 作为高性能构建工具的地位。
对于现有用户,建议重点关注持久化缓存功能的集成,这可以带来最直接的构建效率提升。对于新用户,现在正是评估和采用 Rspack 的良好时机,特别是在中大型前端项目中,其性能优势将更加明显。
随着 Rust 在前端工具链中的普及,Rspack 正在成为连接 Webpack 生态和下一代构建工具的重要桥梁,1.2.0 版本的发布使其在这条道路上又迈出了坚实的一步。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
569
3.84 K
Ascend Extension for PyTorch
Python
379
454
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
893
677
暂无简介
Dart
802
199
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
350
205
昇腾LLM分布式训练框架
Python
118
147
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
68
20
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
781