XXL-JOB时间轮并发问题分析与解决方案
问题背景
XXL-JOB作为一款分布式任务调度平台,其核心调度机制依赖于时间轮算法来实现任务的定时触发。在XXL-JOB 2.4.1版本中,时间轮实现存在一个潜在的并发问题,可能导致任务丢失,特别是在高并发场景下(秒级任务超过1万时)这一问题会显现出来。
问题分析
时间轮实现的核心数据结构是一个Map,其中key为时间槽(ringSecond),value为待执行任务的jobId列表。原始实现中,这个Map的remove和get操作缺乏并发控制,导致在多线程环境下可能出现任务丢失的情况。
并发场景模拟
假设存在两个线程:
- 线程A:执行pushTimeRing方法,向时间轮添加jobId
- 线程B:执行remove操作,从时间轮取出jobId列表
当这两个线程同时操作同一个时间槽时,可能出现以下执行序列:
- 线程A获取指定时间槽的list
- 线程B执行remove操作,获取同一个list
- 线程B执行list.addAll将任务取出
- 线程A向list添加新的jobId
此时,线程A添加的jobId将会丢失,因为该list已经被线程B从Map中移除,后续调度将无法获取到这个list。
解决方案演进
初步尝试
-
使用线程安全List:尝试使用Collections.synchronizedList或CopyOnWriteArrayList等线程安全集合,但测试发现在2万任务级别仍会出现任务丢失。
-
基于issue #2892的方案:通过加锁机制改进,测试发现在4万任务级别仍会出现任务丢失。
这些方案虽然降低了问题出现的概率,但未能从根本上解决问题,因为核心问题在于向一个已经被Map移除引用的list添加数据。
最终解决方案:基于CAS的AtomicReferenceArray
采用Java并发包中的AtomicReferenceArray类实现CAS操作,完全取代原有的Map结构。核心思路如下:
- pushTimeRing方法改进:
private static void pushTimeRing(int ringSecond, int jobId) {
List<Integer> jobList = ringArr.getAndSet(ringSecond, null);
if(jobList == null) {
jobList = new ArrayList<>();
}
jobList.add(jobId);
ringArr.set(ringSecond, jobList);
}
关键点:
- 使用getAndSet原子操作获取list的同时将其置空
- 确保remove操作不会获取到同一个list进行并发操作
- 消费线程改进:
for(int i = 0; i < 2; i++) {
List<Integer> tmpData = ringArr.getAndSet((nowSecond + 60 - i) % 60);
if(tmpData != null) {
ringItemData.addAll(tmpData);
}
}
关键点:
- 使用CAS读取并置空时间槽
- 确保put操作不会获取到即将被消费的list
性能测试与验证
测试环境:
- 硬件配置:16G内存,i7-12700处理器
- 测试场景:仅测试任务生产(put)和消费(remove)的并发逻辑,不实际触发任务执行
- 测试数据量:5000、1万、2万、4万、10万级别
测试结果:
- 在10万任务级别下,put操作总时间仍保持在毫秒级
- 经过严格测试,未再出现任务丢失现象
- 相比原始方案,新方案在保证线程安全的同时,性能表现优异
技术原理深入
CAS(Compare-And-Swap)机制
CAS是Java并发编程中的一种无锁算法,它包含三个操作数:
- 内存位置(V)
- 预期原值(A)
- 新值(B)
CAS操作会先比较内存位置的值与预期原值,只有两者相同时,才会将该位置的值更新为新值。这一操作是原子性的,由CPU指令直接支持。
时间轮算法优化
传统时间轮实现通常使用环形数组和链表结构,在多线程环境下需要考虑:
- 生产者和消费者的并发访问
- 时间槽的复用问题
- 任务的高效添加和取出
通过AtomicReferenceArray的CAS操作,我们实现了:
- 无锁化的线程安全
- 避免任务丢失的可靠性
- 高性能的任务调度
总结
XXL-JOB时间轮的并发问题是一个典型的生产者-消费者模型下的线程安全问题。通过深入分析问题本质,我们最终采用基于CAS的AtomicReferenceArray方案,从根本上解决了任务丢失问题。这一方案不仅保证了线程安全,还保持了高性能,能够支持每秒10万级别的任务调度需求。
对于分布式任务调度系统而言,时间轮的可靠性和性能至关重要。这一优化方案为XXL-JOB在高并发场景下的稳定运行提供了有力保障。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00