Apache Arrow Gandiva模块在LLVM 20.1.1下的崩溃问题分析
Apache Arrow项目中的Gandiva模块是一个基于LLVM的SQL表达式执行引擎,它能够将SQL表达式编译为高效的本地代码。近期在使用LLVM 20.1.1版本时,开发者发现Gandiva模块出现了崩溃问题。
问题现象
当运行Gandiva的测试用例时,程序会在处理二进制数据时触发断言失败,导致崩溃。核心错误信息显示LLVM的APInt类在构造时断言失败,提示"Value is not an N-bit unsigned value"。
通过分析调用栈可以发现,崩溃发生在LLVMGenerator::LoadVectorAtIndex函数中,该函数试图加载一个索引值为-1的向量。进一步追踪发现,这是由于GetOffsetsReference函数被错误调用导致的。
根本原因
问题的本质在于Gandiva模块对固定宽度数据和可变宽度数据的处理逻辑存在缺陷。在固定宽度数据的情况下,系统不应该尝试获取偏移量引用,因为这类数据不需要偏移量缓冲区。然而当前代码路径中,GetOffsetsReference函数会被无条件调用,即使对于固定宽度数据也是如此。
在早期版本的LLVM中,这种错误调用会产生一个无效的LLVM值引用,但由于后续处理会忽略这个无效引用,因此不会导致崩溃。然而在LLVM 20.1.1版本中,APInt类的构造函数增加了更严格的参数校验,当传入非法值时会直接触发断言失败。
技术细节
具体来看,问题出在LLVMTypes::int_constant模板函数的实现上。该函数试图将一个负值(-1)转换为32位无符号整数,这在LLVM 20.1.1中会被视为非法操作。这个负值实际上是一个特殊标记,用于表示"无偏移量"的情况。
在Gandiva的代码生成过程中,系统会为每个字段生成访问代码。对于可变宽度字段(如字符串),需要处理偏移量数组;而对于固定宽度字段(如整数),则不需要。当前的实现没有正确区分这两种情况,导致生成了不必要的偏移量访问代码。
解决方案
修复此问题需要修改Gandiva的代码生成逻辑,确保:
- 在处理固定宽度数据时,完全跳过偏移量引用的生成步骤
- 只在处理真正的可变宽度数据时才调用GetOffsetsReference函数
- 确保所有特殊值标记都符合LLVM的类型系统要求
这种修改不仅解决了LLVM 20.1.1下的崩溃问题,也使代码逻辑更加清晰和健壮。
影响范围
该问题主要影响:
- 使用LLVM 20.1.1及以上版本编译的Gandiva模块
- 处理固定宽度数据的查询场景
- 所有依赖Gandiva的Arrow相关功能
对于使用较旧LLVM版本的用户,虽然不会遇到崩溃问题,但仍然存在潜在的逻辑缺陷,建议同样应用修复补丁。
总结
这个问题展示了底层库升级可能暴露的隐藏缺陷。Arrow项目通过及时修复这个问题,不仅解决了兼容性问题,还提高了代码质量。这也提醒开发者在使用特殊值标记时,需要考虑类型系统的约束,特别是在与严格类型检查的库(如LLVM)交互时。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00