SQLGlot项目中的PostgreSQL DISTINCT ON子句解析问题分析
在SQL解析和转换工具SQLGlot中,最近发现了一个关于PostgreSQL特有语法DISTINCT ON子句的解析问题。这个问题涉及到SQL语句的列引用解析和限定(qualification)过程,值得数据库开发者和SQL工具开发者深入了解。
PostgreSQL的DISTINCT ON特性
PostgreSQL的DISTINCT ON是一个独特的语法扩展,它允许用户基于指定列或表达式选择结果集中的唯一行。与标准SQL中的DISTINCT不同,DISTINCT ON可以更精确地控制去重逻辑。根据PostgreSQL官方文档,DISTINCT ON表达式的解析规则与ORDER BY子句相同,可以引用输出列的名称、序号或输入列的值。
问题现象
在SQLGlot中,当尝试对包含DISTINCT ON的PostgreSQL查询进行限定(qualify)操作时,出现了以下问题:
- 对于查询
SELECT DISTINCT ON (new_col) t1.col1 AS new_col FROM table1 AS t1,限定后错误地将new_col解析为t1.new_col,而实际上new_col是输出列的别名 - 当提供schema进行验证时,会抛出"Column could not be resolved"异常
- 与
ORDER BY子句的行为不一致,后者能正确处理列别名引用
技术分析
问题的核心在于SQLGlot的限定器(qualifier)没有正确处理DISTINCT ON子句中的列引用类型。在PostgreSQL中,DISTINCT ON子句可以引用:
- 输出列的序号(如1)
- 输出列的别名(如new_col)
- 输入列的直接引用(如t1.col1或col1)
SQLGlot最初将这些引用都处理为列引用(Column),而实际上对于别名引用应该处理为标识符(Identifier)。这与ORDER BY子句的行为形成了不一致。
解决方案
经过多次讨论和验证,最终确定了以下解决方案:
- 修改限定器,使
DISTINCT ON子句的解析规则与ORDER BY保持一致 - 正确处理三种引用方式:
- 序号引用保持原样
- 别名引用转换为标识符
- 列引用进行正确的限定
- 确保在schema验证时不会错误地抛出异常
实现细节
在具体实现上,解决方案涉及:
- 在
_expand_distinct_on函数中,使用与ORDER BY相同的引用扩展逻辑 - 修改
Scope类的columns属性处理,将DISTINCT加入排除列表 - 确保位置引用(如1)和别名引用(如new_col)都能正确解析
实际影响
这一修复使得SQLGlot能够正确处理以下各种DISTINCT ON用例:
-- 使用输出列序号
SELECT DISTINCT ON (1) t1.col1 AS new_col FROM table1 t1
-- 使用输出列别名
SELECT DISTINCT ON (new_col) t1.col1 AS new_col FROM table1 t1
-- 使用输入列引用
SELECT DISTINCT ON (col1) t1.col1 AS new_col FROM table1 t1
-- 复杂表达式
SELECT DISTINCT ON (max(col)) max(col) AS C, col2 FROM table GROUP BY col2
总结
这个问题展示了SQL解析器中一个有趣的边缘案例,特别是对于PostgreSQL特有的语法扩展。通过深入分析PostgreSQL的文档和实际行为,SQLGlot团队最终实现了与数据库引擎一致的处理逻辑。这对于依赖SQLGlot进行SQL转换和迁移的工具来说是一个重要的改进。
对于SQL工具开发者来说,这个案例也提醒我们:在处理SQL方言扩展时,需要仔细研究官方文档并测试各种边界情况,确保解析行为与数据库引擎保持一致。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00