Electron Forge v7.7.0 发布:全面支持 pnpm 与多项优化
Electron Forge 是一个强大的 Electron 应用程序打包和发布工具链,它简化了 Electron 应用的构建、打包和分发流程。作为 Electron 生态中的核心工具之一,Forge 为开发者提供了开箱即用的项目脚手架、多平台打包支持以及灵活的插件系统。
核心特性:pnpm 包管理器支持
本次 v7.7.0 版本最重要的更新是正式添加了对 pnpm 包管理器的支持。pnpm 作为 npm 和 yarn 之外的另一种选择,以其高效的磁盘空间利用和快速的安装速度著称。现在,Electron Forge 项目可以无缝使用 pnpm 作为其包管理工具,为开发者提供了更多选择。
这项改进意味着:
- 新创建的 Electron Forge 项目可以直接使用 pnpm 进行依赖管理
- 现有项目可以平滑迁移到 pnpm 工作流
- 所有 Forge 命令(如打包、发布等)都能与 pnpm 完美配合
模板系统优化
本次更新对项目模板系统进行了多项改进:
-
Vite 模板优化:修复了 ESM 导入问题,确保 Vite 模板项目能够正确运行。同时解决了
--force标志在 Vite 和 Vite+TypeScript 模板中的工作问题,使开发者能够更灵活地覆盖现有项目文件。 -
基础模板升级:修正了 plugin-fuses 插件的版本安装问题,确保新项目能够使用正确的插件版本。
-
配置灵活性增强:现在
packagerConfig.quiet配置项变得可配置,开发者可以根据需要控制打包过程中的日志输出级别。
跨平台打包修复
针对不同平台的打包工具进行了多项修复:
-
Flatpak 打包器:修复了 ARM64 架构下的 flatpakArch 配置问题,使应用能够正确打包为 Flatpak 格式并在 ARM 设备上运行。
-
系统兼容性检查:改进了系统检查逻辑,现在只在执行实际命令时进行检查,减少了不必要的系统调用,提升了工具链的整体性能。
开发者体验提升
-
命令行界面优化:
- 升级了命令行库从 v4 到 v11,带来了更稳定的 CLI 体验
- 清理了重复的默认信息输出,使控制台输出更加简洁
- 改进了错误处理,当系统检查失败时会明确提示错误
-
性能优化:
- 最小化包管理器解析调用次数
- 只在必要时检查 git 状态(如初始化项目时)
- 减少了不必要的系统检查
-
代码质量改进:
- 移除了未维护的 resolve-package 依赖
- 重新启用了预构建原生模块测试
- 引入了 ESLint 缓存机制加速代码检查
构建系统更新
项目本身的构建系统也进行了多项升级:
- 更新了多个依赖项版本,包括 @octokit/request-error、vitest 等
- 修复了安全审计发现的问题
- 改进了 GitHub Actions 工作流配置
项目维护改进
- 清理了问题模板,使问题报告更加规范
- 添加了自动标记陈旧问题的机制
- 移除了不必要的版本控制文件
Electron Forge v7.7.0 的这些改进使 Electron 应用开发体验更加流畅,特别是对于使用 pnpm 和 Vite 的开发者来说,这个版本带来了显著的体验提升。无论是新项目创建还是现有项目维护,都能从中受益。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust0130- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniCPM-V-4.6这是 MiniCPM-V 系列有史以来效率与性能平衡最佳的模型。它以仅 1.3B 的参数规模,实现了性能与效率的双重突破,在全球同尺寸模型中登顶,全面超越了阿里 Qwen3.5-0.8B 与谷歌 Gemma4-E2B-it。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00