Rsbuild v1.4.0-beta.3 版本深度解析
Rsbuild 是一个基于 Rspack 的现代化前端构建工具,它通过提供开箱即用的配置和优化的构建流程,帮助开发者快速搭建高性能的前端应用。本次发布的 v1.4.0-beta.3 版本带来了一系列值得关注的新特性、性能优化和问题修复。
核心特性升级
本次更新最值得关注的是对 Rspack 核心依赖的升级,Rsbuild 现在支持最新的 @rspack/core v1.4.0-beta.0 版本。这一升级意味着开发者可以享受到 Rspack 最新版本带来的构建性能改进和新特性支持。
在类型系统方面,新增了普通 CSS 模块的类型声明支持。这一改进使得在使用 CSS Modules 时,TypeScript 能够提供更准确的类型提示和检查,提升了开发体验。
性能优化亮点
Rsbuild 团队在此版本中进行了多项性能优化工作。首先移除了 dotenv 依赖项,转而使用自定义的解析函数来处理环境变量文件。这一改动减少了项目依赖,降低了构建工具的启动开销。
另一个值得注意的优化是对 Node.js crypto 模块的懒加载处理。通过延迟加载这个较大的核心模块,Rsbuild 进一步优化了启动性能,特别是在冷启动场景下效果更为明显。
问题修复与改进
在模板生成方面,修复了 create-rsbuild 工具中 env.d.ts 文件在某些模板中缺失的问题,确保了 TypeScript 环境变量类型声明的完整性。同时修正了 react18-ts 预设中 ESLint 模板名称的错误。
对于 Sass 用户,解除了对 sass-embedded 的固定版本限制,并更新到了最新的 v1.89.2 版本,解决了潜在的兼容性问题。
开发体验提升
在 TypeScript 支持方面,Rsbuild 现在默认启用了 verbatimModuleSyntax 选项,这一特性可以更精确地控制模块导入/导出的行为。同时,项目模板中也启用了 noUncheckedSideEffectImports 选项,增强了类型检查的严格性。
文档方面也进行了多项更新,包括补充了服务器 CORS 配置的默认值说明,改进了移动端适配的文档展示,并完善了迁移指南中的钩子函数说明。
测试基础设施升级
测试框架方面,Rsbuild 开始采用 Rstest 作为新的测试框架,这一变化预示着项目在测试覆盖率和稳定性方面的持续投入。同时,测试用例中对 SRI 插件警告日志的处理也进行了优化,使得测试输出更加清晰。
总结
Rsbuild v1.4.0-beta.3 版本在构建性能、类型支持和开发体验等方面都做出了显著改进。这些变化不仅提升了工具本身的稳定性和效率,也为开发者提供了更加完善的开发环境。随着 Rspack 生态的持续发展,Rsbuild 作为其上层工具链的重要组成部分,正在快速成熟并展现出强大的竞争力。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00