JReleaser v1.18.0 发布:增强构建与部署能力的技术解析
JReleaser 是一个强大的 Java 项目发布工具,它能够自动化整个软件发布流程,包括构建、打包、发布到各种平台以及生成变更日志等。最新发布的 v1.18.0 版本带来了多项功能增强和问题改进,进一步提升了开发者的工作效率和发布体验。
核心功能增强
原生镜像构建支持
v1.18.0 版本中,JReleaser 增加了对 FLAT_BINARY 分布类型的原生镜像构建支持。这意味着开发者现在可以更灵活地使用 GraalVM 原生镜像工具链来构建不同格式的二进制分发包,为不同平台提供更优化的运行时性能。
Docker 构建改进
构建过程中现在会自动包含 git 工具,解决了之前在某些场景下因缺少 git 而导致的构建失败问题。这一改进特别适合那些在构建过程中需要访问 git 仓库信息的项目。
Maven 部署优化
新版本显著提升了 Maven 部署器的稳定性和可靠性:
- 增加了部署超时后的重试机制和延迟处理
- 添加了对 Nexus3 仓库的专门支持
- 当部署到 Maven Central 超时时会显示明确的提示信息
这些改进大大减少了因网络波动或服务端问题导致的部署失败情况。
容器化支持增强
Podman 支持
现在除了 Docker 外,JReleaser 还支持使用 Podman 作为容器构建工具。Podman 是一个无守护进程的容器引擎,在某些环境中可能比 Docker 更受欢迎。这一变化为开发者提供了更多的选择灵活性。
发布流程改进
Forgejo 支持
v1.18.0 版本新增了对 Forgejo 作为发布平台的支持。Forgejo 是一个 Git 托管服务的分支,这一支持使得使用 Forgejo 的团队也能享受到 JReleaser 的自动化发布功能。
GitHub Release 控制
现在可以通过配置显式控制是否将 GitHub Release 标记为最新版本,这为管理多个并行版本提供了更精细的控制能力。
问题改进与稳定性提升
新版本改进了多个影响用户体验的问题:
- 解决了 SMTP 邮件通知中因 Jakarta Mail 重定位导致的类找不到问题
- 优化了组装器解析逻辑,现在只解析被选中的组装器
- 改进了快照构件部署坐标计算错误的问题
- 更新了 AppImage 模板,确保兼容性
开发者工具链更新
JReleaser v1.18.0 同步更新了众多依赖库,包括:
- 升级到 GraalVM 22.3.5
- 更新 Jackson 到 2.19.0
- 升级 Picocli 到 4.7.7
- 更新多个安全相关库版本
这些更新不仅带来了性能改进,也修复了已知的问题。
总结
JReleaser v1.18.0 通过新增功能、优化现有流程和改进问题,进一步巩固了其作为 Java 项目发布自动化首选工具的地位。无论是原生镜像构建、容器化支持,还是对各种仓库和代码托管平台的支持,这个版本都为开发者提供了更强大、更灵活的工具集。对于追求高效、自动化发布流程的 Java 团队来说,升级到 v1.18.0 版本将带来显著的效率提升和更顺畅的发布体验。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust073- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00