Dinky与DolphinScheduler集成实践指南
2026-02-04 04:44:35作者:龚格成
前言
在现代大数据处理场景中,任务调度系统扮演着至关重要的角色。本文将详细介绍如何将Dinky与DolphinScheduler进行集成,实现Flink任务的自动化调度管理。通过这种集成,用户可以充分利用Dinky强大的Flink开发能力和DolphinScheduler优秀的调度能力,构建高效的数据处理流水线。
环境准备
系统要求
- DolphinScheduler:3.2.1及以上版本
- Dinky:1.0.0及以上版本
- Docker:19.03及以上版本(用于快速部署DolphinScheduler)
DolphinScheduler部署
对于快速体验和测试环境,推荐使用Docker方式部署DolphinScheduler:
export DOLPHINSCHEDULER_VERSION=3.2.1
docker run --name dolphinscheduler-standalone-server \
-p 12345:12345 \
-p 25333:25333 \
-d apache/dolphinscheduler-standalone-server:"${DOLPHINSCHEDULER_VERSION}"
部署完成后,通过浏览器访问http://<服务器IP>:12345/dolphinscheduler/ui/login,使用默认账号admin/dolphinscheduler123登录。
基础配置
-
创建租户:
- 进入"安全中心" → "租户管理" → "创建租户"
- 建议为Dinky集成创建专用租户
-
用户管理:
- 进入"安全中心" → "用户管理"
- 创建新用户或修改现有用户,将其关联到上一步创建的租户
-
生成访问Token:
- 进入"安全中心" → "令牌管理" → "创建令牌"
- 设置合理的过期时间并保存生成的Token
Dinky配置
服务启动
假设Dinky安装在/opt/dinky-1.0.0目录下:
cd /opt/dinky-1.0.0
./auto.sh start 1.16
启动后访问http://<服务器IP>:8888,使用默认账号admin/admin登录。
DolphinScheduler集成配置
- 进入"配置中心" → "全局配置" → 选择"DolphinScheduler配置"标签页
- 配置关键参数:
- DolphinScheduler地址:
http://<DS服务器IP>:12345/dolphinscheduler - DolphinScheduler Token:前面步骤生成的Token
- 项目名称:默认为
Dinky,可根据需要修改 - 启用状态:设置为"是"
- DolphinScheduler地址:
实践示例
创建FlinkSQL任务
- 进入"数据开发" → "项目" → 右键目录 → "创建任务"
- 选择任务类型为
FlinkSQL,填写任务名称 - 在编辑器中输入示例SQL:
-- 基础配置
set execution.checkpointing.checkpoints-after-tasks-finish.enabled=true;
SET pipeline.operator-chaining=false;
set state.backend.type=rocksdb;
set execution.checkpointing.interval=8000;
set state.checkpoints.num-retained=10;
set cluster.evenly-spread-out-slots=true;
-- 创建源表
DROP TABLE IF EXISTS source_table3;
CREATE TABLE IF NOT EXISTS
source_table3 (
`order_id` BIGINT,
`product` BIGINT,
`amount` BIGINT,
`order_time` as CAST(CURRENT_TIMESTAMP AS TIMESTAMP(3)),
WATERMARK FOR order_time AS order_time - INTERVAL '2' SECOND
)
WITH
(
'connector' = 'datagen',
'rows-per-second' = '1',
'fields.order_id.min' = '1',
'fields.order_id.max' = '2',
'fields.amount.min' = '1',
'fields.amount.max' = '10',
'fields.product.min' = '1',
'fields.product.max' = '2'
);
-- 创建目标表
DROP TABLE IF EXISTS sink_table5;
CREATE TABLE IF NOT EXISTS
sink_table5 (
`product` BIGINT,
`amount` BIGINT,
`order_time` TIMESTAMP(3),
`one_minute_sum` BIGINT
)
WITH
('connector' = 'print');
-- 数据处理逻辑
INSERT INTO
sink_table5
SELECT
product,
amount,
order_time,
SUM(amount) OVER (
PARTITION BY
product
ORDER BY
order_time
RANGE BETWEEN INTERVAL '1' MINUTE PRECEDING
AND CURRENT ROW
) as one_minute_sum
FROM
source_table3;
任务配置与发布
-
在右侧"任务配置"面板中配置相关参数:
- 执行模式(Session/Per-Job)
- 集群配置
- 检查点设置等
-
点击"发布"按钮将任务发布到Dinky服务器
-
发布成功后,点击"推送"按钮将任务推送到DolphinScheduler
-
在推送配置中:
- 设置任务优先级
- 配置任务失败策略
- 设置前置依赖关系(可选)
DolphinScheduler侧操作
- 进入"项目管理" → "Dinky"项目 → "工作流定义"
- 查看从Dinky推送过来的任务
- 将工作流上线并执行:
- 支持手动立即执行
- 可配置定时调度策略
- 支持工作流依赖管理
最佳实践建议
-
资源规划:
- 为Dinky集成创建专用租户和项目
- 合理设置任务优先级和资源配额
-
任务设计:
- 复杂任务建议拆分为多个子任务
- 合理设置任务依赖关系
- 避免循环依赖
-
监控与告警:
- 利用DolphinScheduler的监控功能
- 配置适当的告警策略
- 定期检查任务执行历史
-
版本管理:
- 保持Dinky和DolphinScheduler版本兼容
- 升级前做好充分测试
常见问题排查
-
推送失败:
- 检查DolphinScheduler服务是否正常运行
- 验证Token是否有效且未过期
- 确认项目名称是否正确
-
任务执行失败:
- 检查Dinky任务配置是否正确
- 查看Flink集群资源是否充足
- 分析任务日志定位具体问题
-
依赖关系不生效:
- 确认前置任务已正确配置
- 检查工作流定义中的依赖连线
- 验证前置任务执行状态
总结
通过Dinky与DolphinScheduler的集成,企业可以构建一个完整的Flink任务开发和调度解决方案。这种集成方案具有以下优势:
- 简化流程:从开发到调度的全流程可视化操作
- 提高效率:减少人工干预,降低运维成本
- 增强可靠性:完善的依赖管理和失败处理机制
- 灵活扩展:支持复杂的工作流编排
建议用户在实际生产环境中,根据业务需求和数据规模,合理规划任务调度策略和资源配置,以充分发挥该集成方案的价值。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
热门内容推荐
最新内容推荐
Degrees of Lewdity中文汉化终极指南:零基础玩家必看的完整教程Unity游戏翻译神器:XUnity Auto Translator 完整使用指南PythonWin7终极指南:在Windows 7上轻松安装Python 3.9+终极macOS键盘定制指南:用Karabiner-Elements提升10倍效率Pandas数据分析实战指南:从零基础到数据处理高手 Qwen3-235B-FP8震撼升级:256K上下文+22B激活参数7步搞定机械键盘PCB设计:从零开始打造你的专属键盘终极WeMod专业版解锁指南:3步免费获取完整高级功能DeepSeek-R1-Distill-Qwen-32B技术揭秘:小模型如何实现大模型性能突破音频修复终极指南:让每一段受损声音重获新生
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
567
3.83 K
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
68
20
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
暂无简介
Dart
798
197
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
779
喝着茶写代码!最易用的自托管一站式代码托管平台,包含Git托管,代码审查,团队协作,软件包和CI/CD。
Go
23
0
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
349
200
Ascend Extension for PyTorch
Python
376
446
无需学习 Kubernetes 的容器平台,在 Kubernetes 上构建、部署、组装和管理应用,无需 K8s 专业知识,全流程图形化管理
Go
16
1