RiverQueue项目中多队列任务调度与清理机制实践
2025-06-16 07:20:24作者:蔡丛锟
背景介绍
RiverQueue是一个基于PostgreSQL的任务队列系统,它允许开发者构建复杂的分布式任务处理系统。在实际生产环境中,我们经常需要处理这样的场景:一个主任务执行完成后,需要安排后续的清理任务在特定时间执行。本文将详细介绍如何在RiverQueue中实现这种主任务与延时清理任务的协同工作。
系统架构设计
在本文介绍的实现中,系统采用了双队列架构:
- 默认队列:处理主要的任务分配和资源调度工作
- 取消队列:专门处理后续的清理和取消操作
这种设计将不同性质的任务隔离到不同的队列中,既保证了系统的清晰性,又能针对不同类型的任务设置不同的并发策略。
实现细节
队列初始化
系统初始化时,我们创建了两个队列并配置了各自的Worker数量:
riverClient, err := river.NewClient(riverpgxv5.New(dbPool), &river.Config{
Logger: slog.New(&slogutil.SlogMessageOnlyHandler{Level: slog.LevelWarn}),
Queues: map[string]river.QueueConfig{
river.QueueDefault: {MaxWorkers: queueMaxWorkers},
"cancel_queue": {MaxWorkers: queueMaxWorkers},
},
Workers: workers,
})
Worker注册
系统注册了两种Worker类型:
- JobWorker:处理主要的任务调度工作
- CleanupWorker:处理后续的清理工作
func (EasyBackfill) AddWorkers(workers *river.Workers) {
river.AddWorker(workers, &work.JobWorker{})
river.AddWorker(workers, &work.CleanupWorker{})
}
任务链式调用
在主任务(JobWorker)执行完成后,它会安排一个延时执行的清理任务:
func (w JobWorker) Work(ctx context.Context, job *river.Job[JobArgs]) error {
// 主任务处理逻辑...
return SubmitCleanup(ctx, pool, 10, int64(fluxID), true, []string{})
}
清理任务提交
清理任务的提交函数展示了如何在RiverQueue中安排延时任务:
func SubmitCleanup(
ctx context.Context,
pool *pgxpool.Pool,
seconds int32,
fluxID int64,
inKubernetes bool,
tags []string,
) error {
client, err := river.ClientFromContextSafely[pgx.Tx](ctx)
// 错误处理...
// 计算任务执行时间
now := time.Now()
scheduledAt := now.Add(time.Second * time.Duration(seconds))
insertOpts := river.InsertOpts{
MaxAttempts: defaults.MaxAttempts,
Tags: tags,
Queue: "cancel_queue", // 关键点:指定正确的队列名称
ScheduledAt: scheduledAt,
}
// 插入任务到指定队列...
}
关键问题与解决方案
在实际实现中,开发者可能会遇到清理任务没有按预期执行的情况。这通常是由于以下原因造成的:
- 队列名称不匹配:在任务提交时指定的队列名称必须与初始化时配置的队列名称完全一致
- Worker注册遗漏:确保所有类型的Worker都已正确注册
- 时间计算错误:延时任务的时间计算需要准确
在本文案例中,问题出在队列名称不一致上:初始化时配置的是"cancel_queue",但提交任务时错误地使用了"cleanup_queue"。这种细微的差别会导致任务被提交到不存在的队列中,从而无法被执行。
最佳实践
- 队列命名:保持队列命名一致,可以考虑使用常量或枚举来管理队列名称
- 日志记录:在任务提交和执行的关键节点添加日志,便于问题排查
- 错误处理:对ClientFromContextSafely等关键操作进行完善的错误处理
- 事务管理:确保任务提交过程中的事务正确处理
总结
RiverQueue提供了灵活的任务队列管理能力,通过合理设计队列结构和任务链,可以实现复杂的任务调度场景。本文介绍的多队列协作模式适用于需要后续清理或回调的业务场景,如资源预定系统、定时任务系统等。关键在于确保队列配置、Worker注册和任务提交各环节的一致性,并通过完善的日志和错误处理机制保证系统可靠性。
通过这种设计,开发者可以构建出既清晰又可扩展的任务处理系统,满足各种复杂的业务需求。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
569
3.84 K
Ascend Extension for PyTorch
Python
379
453
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
893
676
暂无简介
Dart
802
199
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
350
203
昇腾LLM分布式训练框架
Python
118
147
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
68
20
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
781