Substrait项目v0.70.0版本发布:Hash Equijoin操作符排序保证移除解析
Substrait是一个用于定义跨平台数据计算的标准中间表示(IR)的开源项目。它旨在为不同计算引擎(如Spark、Presto、Flink等)提供统一的查询计划表示,使得不同系统之间可以无缝交换执行计划。Substrait通过定义标准化的操作符和数据类型,实现了跨系统的互操作性。
在最新发布的v0.70.0版本中,Substrait项目对Hash Equijoin操作符的语义进行了重要变更,移除了该操作符在特定情况下保持输入顺序的保证。这一变更虽然看似微小,但对查询优化器的实现和查询计划的生成有着深远影响。
Hash Equijoin排序保证的历史背景
在之前的版本中,Substrait规范明确指出Hash Equijoin操作符在INNER JOIN情况下会保持左输入集的顺序。这一保证源于某些特定实现场景下的观察:当构建端(build side)输入完全适合内存,且探测端(probe side)输入在单线程中流式处理时,INNER JOIN确实可以保持探测端的顺序。
这种保证在简单场景下看似合理,但实际上隐含了特定的实现假设。它假设了哈希表完全驻留内存、单线程执行等理想条件,这在现代分布式数据处理系统中往往不成立。
移除排序保证的技术考量
v0.70.0版本移除了这一排序保证,主要基于以下技术原因:
-
内存限制的现实性:在实际生产环境中,构建端数据往往无法完全装入内存,需要溢出到磁盘。这种情况下,保持探测端顺序变得极其困难甚至不可能。
-
并行处理的普遍性:现代数据处理系统普遍采用并行执行策略。在多线程或多节点环境下并行处理探测端输入时,保持全局顺序需要额外的同步开销,这与哈希连接的高效性目标相悖。
-
实现多样性:不同系统对哈希连接的实现策略差异很大。有些实现可能选择保持顺序作为优化手段,而有些则不会。规范层面的保证限制了实现的选择空间。
-
语义清晰性:INNER JOIN被特别列出而其他连接类型没有类似保证,这在语义上不够一致。实际上,某些OUTER JOIN在特定条件下同样可以保持顺序。
对实现者的影响
这一变更对Substrait实现者意味着:
-
查询优化器不能再依赖哈希连接自动保持顺序的属性。如果需要保持顺序,必须显式添加排序操作符。
-
实现者现在有更大自由度来选择哈希连接的具体实现策略,无需为了满足规范要求而增加不必要的顺序保持逻辑。
-
对于确实能保持顺序的特殊情况实现,可以作为优化提示而非规范要求来处理。
最佳实践建议
基于这一变更,建议系统实现者:
-
在查询优化阶段,明确区分"需要保持顺序"和"可以容忍无序"的场景。对于前者,考虑添加显式排序。
-
在能够保证顺序的特殊情况下,可以通过扩展属性或提示机制向优化器传递这一信息,而不是依赖规范层面的保证。
-
在跨系统交换查询计划时,不要假设哈希连接会保持任何特定顺序,除非有明确的额外保证。
这一变更体现了Substrait项目对现实场景的更好适应,为实现提供了更多灵活性,同时也促使开发者更明确地处理数据顺序这一重要属性。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00