Kyuubi项目与Apache Spark 4.0.0的兼容性适配实践
在开源大数据生态系统中,Kyuubi作为一个高性能的JDBC网关服务,与Apache Spark的集成是其核心功能之一。随着Apache Spark 4.0.0预览版的即将发布,Kyuubi项目团队面临了与Spark主分支的兼容性挑战。本文将深入探讨这一技术适配过程的关键问题和解决方案。
兼容性问题背景
Kyuubi项目通过每日构建测试来确保与Spark主分支的兼容性。近期测试失败主要源于两个关键的技术变更:
-
Jakarta EE与Java EE的命名空间迁移:Spark 4.0.0开始采用Jakarta命名空间替代原有的javax命名空间,这影响了Servlet API等相关组件。
-
ANTLR版本升级:Spark 4.0.0将ANTLR运行时版本从4.9.3升级到了4.13.1,导致了语法解析器的兼容性问题。
主要技术挑战
1. Servlet API命名空间冲突
在Kyuubi的Spark SQL引擎模块中,存在大量使用javax.servlet.http.HttpServletRequest等类的代码。当与采用jakarta命名空间的新版Spark一起编译时,出现了类型不匹配的编译错误。这种命名空间的变更影响范围广泛,涉及:
- WebUI页面渲染
- HTTP请求处理
- 会话管理
2. ANTLR版本不兼容
Spark SQL的语法解析器依赖于ANTLR工具,版本升级导致了以下问题:
- 代码生成器版本(4.13.1)与运行时版本(4.9.3)不匹配
- ATN(增强转移网络)的序列化格式变更,无法向后兼容
3. 多版本兼容性要求
Kyuubi需要同时支持多个Spark版本,这使得简单的命名空间替换方案不可行,因为:
- 旧版本Spark仍依赖javax命名空间
- 新版本Spark强制要求jakarta命名空间
- 相关类的API签名可能发生变化
解决方案与实现
1. 依赖版本对齐
首先确保构建配置中相关依赖版本与Spark主分支一致:
<!-- 添加jakarta.servlet-api依赖 -->
<jakarta.servlet-api.version>5.0.0</jakarta.servlet-api.version>
<!-- 对齐ANTLR版本 -->
<antlr4.version>4.13.1</antlr4.version>
2. 引入Shim层设计
为解决命名空间冲突问题,采用了Shim层设计模式:
- 抽象接口定义:创建与命名空间无关的接口
- 运行时动态绑定:通过反射机制在运行时加载正确的实现类
- 代理模式:将实际调用委托给底层具体实现
这种设计使得核心业务逻辑可以保持稳定,而将兼容性问题隔离在适配层。
3. 模块化适配策略
针对不同模块采取不同的适配策略:
- Spark Lineage扩展模块:直接更新依赖版本即可解决
- Spark SQL引擎模块:需要更复杂的Shim层实现
- WebUI相关组件:重构页面渲染逻辑以适应新的API
实施效果
经过系列适配工作后:
- 每日构建测试全部通过,验证了与Spark主分支的兼容性
- 保持了向后兼容性,不影响现有Spark版本的支持
- 为即将到来的Spark 4.0.0正式版做好了准备
经验总结
- 前瞻性测试:持续集成中对主分支的每日测试能及早发现问题
- 分层设计:良好的架构设计能够隔离底层变化的影响
- 动态适配:运行时决策机制是处理多版本兼容的有效手段
- 社区协作:关注上游项目的变化趋势有助于提前规划适配工作
这次兼容性适配不仅解决了当前的技术问题,也为Kyuubi项目未来的可维护性和扩展性奠定了更好的基础。随着Spark 4.0.0的正式发布,Kyuubi用户将能够无缝体验到最新Spark版本带来的性能改进和功能增强。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00