Apache Doris执行引擎演进:从Volcano模型到PipelineX的技术突破
2025-06-27 05:59:23作者:田桥桑Industrious
引言:执行引擎在数据库中的核心地位
在现代数据库系统中,执行引擎扮演着至关重要的角色,它如同餐厅中的主厨,负责将优化器生成的执行计划转化为实际的数据处理流程。本文将深入剖析Apache Doris执行引擎的演进历程,揭示其实现高性能查询的关键技术路径。
执行引擎基础概念
当用户提交SQL查询时,数据库系统会经历以下处理流程:
- 查询优化器进行语法/词法分析
- 基于成本模型和优化规则生成最优执行计划
- 执行引擎将计划调度到各节点执行
- 节点操作底层存储引擎数据并返回结果
执行引擎负责数据读取、过滤、排序、聚合等核心操作,其效率直接影响查询性能和资源利用率。不同的执行模型会带来显著的性能差异。
第一阶段:Volcano模型
基本原理
Volcano模型(又称迭代器模型)是分析型数据库中最主流的执行模型。在该模型中:
- 每个操作被抽象为一个算子
- 整个SQL查询构成一棵算子树
- 执行时通过自上而下调用
next()接口遍历树 - 数据自下而上被拉取和处理(拉取式执行模型)
select age, sex from employees where age > 30

技术优势
- 灵活性高:算子之间解耦,易于扩展新算子
- 实现简单:统一的
next()接口规范 - 优化方便:支持多种查询优化技术
性能瓶颈
在单机多核场景下,Volcano模型面临以下挑战:
-
线程阻塞问题:
- 固定大小线程池中,阻塞实例可能导致死锁
- 实例数超过CPU核心数时产生巨大上下文切换开销
-
CPU资源竞争:
- 不同规模查询间相互干扰
- 多租户场景下资源隔离困难
-
多核利用率低:
- 执行并发度受数据分桶数限制
- 分桶数难以精确预估,容易导致资源浪费
第二阶段:Pipeline执行引擎
Apache Doris 2.0.0引入Pipeline执行引擎,核心改进包括:
架构设计
- 任务拆分:将执行计划分解为流水线任务
- 时间片调度:采用时间分片方式调度任务到线程池
- 阻塞处理:阻塞任务挂起释放线程资源
- 灵活调度:支持多种资源分配策略

关键技术实现
避免线程阻塞
- 线程池大小固定为CPU核心数
- 易阻塞操作拆分为独立流水线任务
- 用户态轮询调度器设计:
- 持续检查任务状态
- 按策略分配可执行任务
- 减少OS线程切换开销

并行化优化
-
数据重分布:
- 前端感知后端环境
- 动态设置合理分区数
-
扫描层改造:
- 逻辑重构解耦线程与tablet数
- 扫描线程池化数据供多任务共享

第三阶段:PipelineX引擎
Apache Doris 2.1.0推出PipelineX,解决了Pipeline引擎的遗留问题:
核心改进
-
执行并发度提升:
- 引入Local Shuffle机制
- 解除tablet数对并发的限制
- 自动均衡数据分布,解决倾斜问题
-
执行开销降低:
- 全局状态一次性初始化
- 局部状态按需创建
-
调度开销优化:
- 事件驱动代替轮询
- 阻塞条件抽象为依赖项
-
Profile可读性增强:
- 指标重组优化
- 新增关键耗时统计
技术实现细节
Local Shuffle机制
SELECT COUNT(*) FROM A GROUP BY A.COL_1;

- 管道任务仅维护运行时状态(Local State)
- 共享信息(Global State)由管道对象统一管理
- Local Shuffle负责单BE内数据分布均衡
事件驱动调度
- 将阻塞条件封装为依赖项
- 任务状态通过事件通知触发变更
- 执行计划抽象为DAG图:
- 节点:管道任务
- 边:依赖关系

性能指标优化
扫描算子示例:
OLAP_SCAN_OPERATOR (id=4. table name = Z03_DI_MID):
- ExecTime: 457.750ms
- WaitForDependency[OLAP_SCAN_OPERATOR_DEPENDENCY]Time: 436.883ms
交换算子示例:
EXCHANGE_OPERATOR (id=3):
- ExecTime: 86.691us
- WaitForDependencyTime: 0ns
- WaitForData0: 409.256us
未来演进方向
- 磁盘溢出支持:提升大查询稳定性和资源利用率
- 自适应并发:根据负载动态调整执行并发度
- 智能调度:基于机器学习优化任务调度策略
总结
Apache Doris执行引擎的演进历程:
- Volcano模型:基础实现,面临多核利用率瓶颈
- Pipeline引擎:解决线程阻塞,提升CPU利用率
- PipelineX引擎:完善生产级特性,优化执行效率
这一持续优化的技术路线使Apache Doris在分析型数据库领域保持领先的性能优势,为各类实时分析场景提供强有力的支持。
登录后查看全文
热门项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
FreeSql功能强大的对象关系映射(O/RM)组件,支持 .NET Core 2.1+、.NET Framework 4.0+、Xamarin 以及 AOT。C#00
热门内容推荐
项目优选
收起
deepin linux kernel
C
27
14
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
659
4.26 K
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.54 K
894
Ascend Extension for PyTorch
Python
503
609
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
391
285
暂无简介
Dart
905
218
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
69
21
昇腾LLM分布式训练框架
Python
142
168
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
939
862
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.33 K
108