Rspack v1.3.8 版本发布:SWC API 集成与多项优化
Rspack 是一个基于 Rust 的高性能构建工具,它结合了 Webpack 的生态系统和 Rust 的高效性能。作为现代前端构建工具链中的重要一环,Rspack 致力于提供更快的构建速度和更好的开发者体验。
核心亮点:SWC JavaScript API 集成
本次 v1.3.8 版本最引人注目的特性是实验性地暴露了 SWC 的 JavaScript API。开发者现在可以通过 rspack.experiments.swc 直接调用 SWC 的转换和压缩功能,而无需额外安装 @swc/core 包。
这一集成意味着开发者可以在 Rspack 构建流程中直接利用 SWC 的强大能力,包括:
- 代码转换(transform)
- 代码压缩(minify)
- 其他 SWC 提供的编译功能
这种深度集成为开发者提供了更统一的工具链体验,减少了项目依赖的复杂性,同时也保持了构建流程的高性能特性。
构建优化与功能增强
增量构建改进
-
静默警告与预设添加:增量构建过程中现在会静默某些警告信息,并添加了新的预设配置,使开发者能够更专注于关键问题。
-
调试追踪增强:新增了更多追踪点,帮助开发者更有效地调试增量构建过程中的问题,特别是在复杂项目中定位性能瓶颈。
输出清理功能增强
output.clean 配置现在支持正则表达式和函数形式,为开发者提供了更灵活的清理策略。这意味着可以:
- 使用正则表达式匹配特定文件模式进行清理
- 通过函数逻辑动态决定是否清理特定文件
- 实现更精细化的构建产物管理
模块系统改进
-
chunkgroup 的 origin.loc 支持:增强了 chunkgroup 的元信息,提供了更详细的来源定位信息,有助于开发者理解模块分割的决策过程。
-
魔法注释中的斜杠匹配修复:修正了 magic comments 中斜杠字符的匹配模式问题,提高了模块加载注释的可靠性。
问题修复与稳定性提升
-
版本信息修正:修复了版本输出中错误显示 webpack 版本而非 rspack 版本的问题,确保了工具信息的准确性。
-
循环依赖处理:解决了 circular dependency plugin 中可能出现的死循环问题,提高了构建过程的稳定性。
-
内存管理优化:修复了编译器 JavaScript 对象无法被垃圾回收的问题,降低了长时间运行时的内存占用。
-
上下文依赖处理:修正了某些情况下上下文依赖缺失的问题,确保了模块解析的正确性。
开发者体验改进
-
文档增强:
- 新增了
require.resolveWeak模块方法的文档说明 - 改进了 CSS Modules 相关的文档内容
- 添加了关于 lightningcss 的注意事项说明
- 新增了
-
测试覆盖增强:
- 新增了错误情况下的测试用例
- 清理了完整的快照统计 API 测试用例
- 添加了特定问题的测试用例
内部架构优化
-
SWC API 集成重构:将 SWC API 更深度地集成到 rspack_javascript_compiler 中,为未来的功能扩展奠定了基础。
-
CI/CD 流程改进:
- 优化了 Rust 缓存处理
- 合并了 Rust 检查和测试任务
- 尝试了自托管测试环境
-
依赖管理:
- 移除了未使用的 webpack-cli 依赖
- 更新了多个关键依赖版本
- 改进了 Zod 类型的处理方式
总结
Rspack v1.3.8 版本通过集成 SWC API 进一步巩固了其作为现代化构建工具的地位,同时通过多项优化提升了构建性能和开发者体验。这些改进使得 Rspack 在保持高性能的同时,提供了更丰富的功能和更稳定的构建环境,为大型前端项目的构建流程提供了可靠的支持。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00