ByConity 项目中 LowCardinality(String) 字段的 LIKE 查询问题解析
背景介绍
在 ByConity 数据库系统中,LowCardinality 是一种特殊的数据类型优化技术,它通过字典编码的方式高效存储低基数字符串数据。这种类型在处理具有大量重复值的字符串列时能显著提升存储效率和查询性能。
问题现象
开发人员在使用 ByConity 时发现,对 LowCardinality(String) 类型的字段执行 LIKE 或 ILIKE 查询时会出现错误。具体表现为当查询条件中包含这些字符串匹配操作时,系统抛出"无法将 ColumnLowCardinality 转换为掩码"的异常。
技术分析
这个问题源于 ByConity 的查询执行引擎在处理条件表达式时的特殊机制。系统内部使用掩码(mask)来优化条件判断的执行过程,但在实现时对 LowCardinality 类型的支持存在限制。
在 MaskOperations.cpp 文件中,系统仅对数值类型(包括各种整型和浮点型)实现了掩码提取操作,而没有为字符串类型特别是 LowCardinality(String) 类型提供相应的支持。当查询引擎尝试将 LIKE 操作转换为掩码操作时,由于类型不匹配而抛出异常。
临时解决方案
目前可以通过修改查询设置来规避这个问题:
SET short_circuit_function_evaluation = 'disable';
这个设置会改变查询优化器的行为,避免使用掩码优化路径,从而允许 LIKE/ILIKE 操作在 LowCardinality(String) 字段上正常执行。
根本原因与修复方向
问题的本质在于查询优化器对 LowCardinality 类型的处理不够完善。正确的修复方向应该包括:
- 在掩码操作系统中增加对字符串类型的支持
- 特别处理 LowCardinality 类型的转换逻辑
- 确保字符串匹配操作能够正确处理字典编码的数据
开发团队已经确认这是一个需要修复的问题,并计划在后续版本中解决。
最佳实践建议
在当前版本中,如果必须使用 LowCardinality(String) 类型并需要进行模式匹配查询,建议:
- 在会话级别设置禁用短路函数评估
- 考虑在应用层进行部分过滤
- 对于关键业务场景,评估是否暂时使用普通 String 类型替代
这个问题特别影响需要执行前缀搜索的业务场景,开发人员需要根据实际业务需求权衡存储优化和查询功能的取舍。
总结
ByConity 作为一款高性能分析型数据库,在处理特殊数据类型优化时需要考虑各种查询操作的兼容性。这个案例展示了类型系统与查询优化器交互时可能出现的问题,也为系统在类型支持方面的完善提供了改进方向。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
yuanrongopenYuanrong runtime:openYuanrong 多语言运行时提供函数分布式编程,支持 Python、Java、C++ 语言,实现类单机编程高性能分布式运行。Go051
MiniCPM-SALAMiniCPM-SALA 正式发布!这是首个有效融合稀疏注意力与线性注意力的大规模混合模型,专为百万级token上下文建模设计。00
ebook-to-mindmapepub、pdf 拆书 AI 总结TSX01