Dinky与DolphinScheduler集成实践指南
2026-02-04 04:44:35作者:龚格成
前言
在现代大数据处理场景中,任务调度系统扮演着至关重要的角色。本文将详细介绍如何将Dinky与DolphinScheduler进行集成,实现Flink任务的自动化调度管理。通过这种集成,用户可以充分利用Dinky强大的Flink开发能力和DolphinScheduler优秀的调度能力,构建高效的数据处理流水线。
环境准备
系统要求
- DolphinScheduler:3.2.1及以上版本
- Dinky:1.0.0及以上版本
- Docker:19.03及以上版本(用于快速部署DolphinScheduler)
DolphinScheduler部署
对于快速体验和测试环境,推荐使用Docker方式部署DolphinScheduler:
export DOLPHINSCHEDULER_VERSION=3.2.1
docker run --name dolphinscheduler-standalone-server \
-p 12345:12345 \
-p 25333:25333 \
-d apache/dolphinscheduler-standalone-server:"${DOLPHINSCHEDULER_VERSION}"
部署完成后,通过浏览器访问http://<服务器IP>:12345/dolphinscheduler/ui/login,使用默认账号admin/dolphinscheduler123登录。
基础配置
-
创建租户:
- 进入"安全中心" → "租户管理" → "创建租户"
- 建议为Dinky集成创建专用租户
-
用户管理:
- 进入"安全中心" → "用户管理"
- 创建新用户或修改现有用户,将其关联到上一步创建的租户
-
生成访问Token:
- 进入"安全中心" → "令牌管理" → "创建令牌"
- 设置合理的过期时间并保存生成的Token
Dinky配置
服务启动
假设Dinky安装在/opt/dinky-1.0.0目录下:
cd /opt/dinky-1.0.0
./auto.sh start 1.16
启动后访问http://<服务器IP>:8888,使用默认账号admin/admin登录。
DolphinScheduler集成配置
- 进入"配置中心" → "全局配置" → 选择"DolphinScheduler配置"标签页
- 配置关键参数:
- DolphinScheduler地址:
http://<DS服务器IP>:12345/dolphinscheduler - DolphinScheduler Token:前面步骤生成的Token
- 项目名称:默认为
Dinky,可根据需要修改 - 启用状态:设置为"是"
- DolphinScheduler地址:
实践示例
创建FlinkSQL任务
- 进入"数据开发" → "项目" → 右键目录 → "创建任务"
- 选择任务类型为
FlinkSQL,填写任务名称 - 在编辑器中输入示例SQL:
-- 基础配置
set execution.checkpointing.checkpoints-after-tasks-finish.enabled=true;
SET pipeline.operator-chaining=false;
set state.backend.type=rocksdb;
set execution.checkpointing.interval=8000;
set state.checkpoints.num-retained=10;
set cluster.evenly-spread-out-slots=true;
-- 创建源表
DROP TABLE IF EXISTS source_table3;
CREATE TABLE IF NOT EXISTS
source_table3 (
`order_id` BIGINT,
`product` BIGINT,
`amount` BIGINT,
`order_time` as CAST(CURRENT_TIMESTAMP AS TIMESTAMP(3)),
WATERMARK FOR order_time AS order_time - INTERVAL '2' SECOND
)
WITH
(
'connector' = 'datagen',
'rows-per-second' = '1',
'fields.order_id.min' = '1',
'fields.order_id.max' = '2',
'fields.amount.min' = '1',
'fields.amount.max' = '10',
'fields.product.min' = '1',
'fields.product.max' = '2'
);
-- 创建目标表
DROP TABLE IF EXISTS sink_table5;
CREATE TABLE IF NOT EXISTS
sink_table5 (
`product` BIGINT,
`amount` BIGINT,
`order_time` TIMESTAMP(3),
`one_minute_sum` BIGINT
)
WITH
('connector' = 'print');
-- 数据处理逻辑
INSERT INTO
sink_table5
SELECT
product,
amount,
order_time,
SUM(amount) OVER (
PARTITION BY
product
ORDER BY
order_time
RANGE BETWEEN INTERVAL '1' MINUTE PRECEDING
AND CURRENT ROW
) as one_minute_sum
FROM
source_table3;
任务配置与发布
-
在右侧"任务配置"面板中配置相关参数:
- 执行模式(Session/Per-Job)
- 集群配置
- 检查点设置等
-
点击"发布"按钮将任务发布到Dinky服务器
-
发布成功后,点击"推送"按钮将任务推送到DolphinScheduler
-
在推送配置中:
- 设置任务优先级
- 配置任务失败策略
- 设置前置依赖关系(可选)
DolphinScheduler侧操作
- 进入"项目管理" → "Dinky"项目 → "工作流定义"
- 查看从Dinky推送过来的任务
- 将工作流上线并执行:
- 支持手动立即执行
- 可配置定时调度策略
- 支持工作流依赖管理
最佳实践建议
-
资源规划:
- 为Dinky集成创建专用租户和项目
- 合理设置任务优先级和资源配额
-
任务设计:
- 复杂任务建议拆分为多个子任务
- 合理设置任务依赖关系
- 避免循环依赖
-
监控与告警:
- 利用DolphinScheduler的监控功能
- 配置适当的告警策略
- 定期检查任务执行历史
-
版本管理:
- 保持Dinky和DolphinScheduler版本兼容
- 升级前做好充分测试
常见问题排查
-
推送失败:
- 检查DolphinScheduler服务是否正常运行
- 验证Token是否有效且未过期
- 确认项目名称是否正确
-
任务执行失败:
- 检查Dinky任务配置是否正确
- 查看Flink集群资源是否充足
- 分析任务日志定位具体问题
-
依赖关系不生效:
- 确认前置任务已正确配置
- 检查工作流定义中的依赖连线
- 验证前置任务执行状态
总结
通过Dinky与DolphinScheduler的集成,企业可以构建一个完整的Flink任务开发和调度解决方案。这种集成方案具有以下优势:
- 简化流程:从开发到调度的全流程可视化操作
- 提高效率:减少人工干预,降低运维成本
- 增强可靠性:完善的依赖管理和失败处理机制
- 灵活扩展:支持复杂的工作流编排
建议用户在实际生产环境中,根据业务需求和数据规模,合理规划任务调度策略和资源配置,以充分发挥该集成方案的价值。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
项目优选
收起
deepin linux kernel
C
28
16
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
568
98
暂无描述
Dockerfile
709
4.51 K
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
958
955
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.61 K
942
Ascend Extension for PyTorch
Python
572
694
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
413
339
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.42 K
116
暂无简介
Dart
951
235
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
2