Apache Fury项目中的JPMS模块化支持实践
引言
随着Java平台模块系统(JPMS)的普及,越来越多的Java项目开始考虑模块化支持。Apache Fury作为一个高性能的序列化框架,近期也面临了如何优雅支持JPMS的需求。本文将深入探讨Fury项目在模块化支持方面的技术决策和实践经验。
JPMS模块化的必要性
在Java 9引入模块系统后,未声明模块名称的JAR文件会被视为自动模块(automatic modules),这会导致构建时出现警告信息。对于像Fury这样的库项目来说,明确声明模块名称不仅能消除这些警告,还能为未来的完全模块化做好准备。
模块化方案选择
Fury项目团队经过评估,确定了两个可行的模块化路径:
-
最小化方案:通过在MANIFEST.MF中添加Automatic-Module-Name条目来声明模块名称。这种方式简单易行,不影响现有构建流程,且完全向后兼容。
-
完整模块化:提供完整的module-info.java描述符。这需要更复杂的构建配置,可能涉及多版本JAR或双阶段编译,但能提供完全的模块化支持。
实施细节
Fury项目最终选择了最小化方案作为第一步,主要考虑因素包括:
- 部分依赖(如Arrow)尚未发布JPMS支持版本
- 需要保持对Java 8的长期支持
- 简单性优先,逐步演进
模块命名采用了"org.apache.fury.core"、"org.apache.fury.format"等直观的层级命名方式,既保持了与项目结构的一致性,又符合Java模块命名规范。
未来展望
虽然当前采用了最小化方案,但团队已经规划了完整的模块化路线图。未来可能采用的完整模块化方案有两种主要实现方式:
-
双阶段编译:先以Java 9+编译module-info.java,再用Java 8编译其余代码。这种方式的优点是IDE支持良好,缺点是会混入Java 9+编译的类文件。
-
多版本JAR:将module-info.java放在单独的源目录中,构建为多版本JAR。这种方式更规范,但会带来测试流程的复杂性。
经验分享
从技术实践来看,模块化过程中需要注意几个关键点:
- 依赖项的模块化状态会直接影响项目的模块化策略
- 测试流程需要相应调整,特别是涉及服务加载(uses/provides)的情况
- 构建工具(Maven/Gradle)的配置需要精心设计以支持多版本编译
结语
Apache Fury的模块化实践展示了一个成熟项目如何逐步拥抱JPMS。从简单的模块名称声明开始,到规划完整的模块化支持,这种渐进式演进策略既保证了当前版本的稳定性,又为未来发展奠定了基础。对于其他类似项目而言,Fury的经验提供了有价值的参考。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C091
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00