gradle-maven-publish-plugin 0.32.0版本发布:全面优化与兼容性提升
gradle-maven-publish-plugin是一个用于简化Gradle项目发布到Maven仓库过程的插件,它能够自动化处理发布过程中的各种复杂配置,包括签名、发布到Maven Central等操作。最新发布的0.32.0版本带来了一系列重要的改进和修复,特别在命名优化、兼容性增强和错误处理方面有了显著提升。
核心改进内容
部署命名优化
新版本对Central Portal部署的命名进行了改进,使得部署名称更加清晰和直观。这一改进虽然看似简单,但对于需要管理多个部署项目的开发者来说,能够更快速地区分和理解各个部署的含义,提升了工作效率。
Maven Central发布修复
修复了一个关于发布到Maven Central时选择错误staging配置的问题。具体来说,当发布到(s01.)oss.sonatype.org时,插件之前可能会错误地选择staging profile。这个修复确保了发布过程的准确性和可靠性,避免了因配置错误导致的发布失败。
Kotlin兼容性增强
0.32.0版本解决了与Kotlin 1.9.x版本的兼容性问题,特别是在通过编译插件使用时。这一改进对于使用最新Kotlin版本的开发者尤为重要,确保了插件在各种使用场景下的稳定性。
同时,插件还改进了当无法检测到Kotlin插件时的错误消息,使其更加清晰和可操作。开发者现在能够更快速地定位和解决问题,减少了调试时间。
配置缓存问题修复
新版本修复了一个关于检测配置缓存是否启用的关键问题。之前版本中,错误的检测可能导致不明确的错误消息,使开发者难以采取有效行动。这一修复提升了插件的用户体验,特别是在使用Gradle配置缓存特性时。
Gradle 9.0兼容性
0.32.0版本增加了对Gradle 9.0的兼容性支持,确保插件能够在最新的Gradle版本上正常运行。这对于计划升级到Gradle 9.0的团队来说是一个重要的更新。
版本兼容性说明
最低支持版本
- JDK: 11
- Gradle: 8.5
- Android Gradle插件: 8.0.0
- Kotlin Gradle插件: 1.9.20
测试兼容的最高版本
- JDK: 24
- Gradle: 8.14及9.0-milestone-6
- Android Gradle插件: 8.10.0及8.11.0-alpha10
- Kotlin Gradle插件: 2.1.20及2.2.0-Beta2
配置缓存状态
0.32.0版本在配置缓存支持方面取得了进展,目前大部分功能都已支持配置缓存,除了以下两种情况:
- 发布正式版本到Maven Central(快照版本不受影响),这是由于Gradle本身的一个限制。
- 使用Dokka 1.x或特定版本的Dokka 2.x时。
技术影响分析
这次更新虽然是一个小版本号升级,但对于使用场景广泛的开发者来说具有重要意义。特别是对Kotlin 1.9.x和Gradle 9.0的支持,确保了插件能够跟上生态系统的最新发展。错误消息的改进和配置缓存问题的修复则直接提升了开发体验,减少了不必要的调试时间。
对于Android开发者来说,插件对最新AGP版本的支持意味着可以更自由地组合使用最新的工具链,而不用担心兼容性问题。Maven Central发布流程的修复则确保了企业级发布流程的可靠性,这对需要严格发布管理的团队尤为重要。
总的来说,gradle-maven-publish-plugin 0.32.0版本在稳定性、兼容性和用户体验方面都做出了有价值的改进,是值得升级的一个版本。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00