THUDM/slime项目使用指南:从参数配置到自定义训练流程
2025-06-20 02:12:34作者:翟萌耘Ralph
项目概述
THUDM/slime是一个基于强化学习的大模型训练框架,它整合了Megatron-LM的训练能力和SGLang的推理能力,实现了高效的训推一体化流程。本文将详细介绍如何使用slime进行大模型训练,包括参数配置、资源分配、模型加载以及自定义训练流程等核心内容。
集群资源配置
基础资源配置
在slime中,GPU资源分配主要涉及以下关键参数:
-
训练资源配置
--actor-num-nodes:指定用于RL训练的actor节点数量--actor-num-gpus-per-node:每个actor节点使用的GPU数量
-
推理资源配置
--rollout-num-gpus:推理部分(total)需要的GPU数量--rollout-num-gpus-per-engine:每个推理引擎使用的GPU数量(类似于SGLang的tp_size)
训推一体模式
通过设置--colocate参数可以启用训推一体模式,此时:
- 训练和推理将共享相同的GPU资源
--rollout-num-gpus参数将被忽略- 需要特别注意显存管理,可通过调整
--sglang-mem-fraction-static控制显存占用
模型加载与配置
Megatron模型加载
slime深度集成了Megatron-LM训练框架,加载Megatron模型需要三个关键配置:
1. 模型架构参数
以Qwen3 4B模型为例,典型配置包括:
--num-layers 36
--hidden-size 2560
--ffn-hidden-size 9728
--num-attention-heads 32
--group-query-attention
--num-query-groups 8
--normalization "RMSNorm"
--norm-epsilon 1e-6
2. 并行策略配置
Megatron提供多种并行优化策略:
-
基础并行:
--tensor-model-parallel-size:张量并行大小--sequence-parallel:建议与张量并行同时启用--pipeline-model-parallel-size:流水线并行大小
-
高级并行:
--context-parallel-size:序列并行(类似ring attention)--expert-model-parallel-size:MoE专家并行--expert-tensor-parallel-size:MoE专家张量并行
3. 检查点管理
slime支持两种Megatron检查点格式:
- Torch格式:传统格式,需保持并行策略一致
- Torch_dist格式(推荐):支持自动并行切分
关键参数:
--ref-load:参考模型检查点路径--load:训练模型检查点路径--save:模型保存路径
SGLang推理配置
SGLang的配置相对简单:
--hf-checkpoint:指定HuggingFace格式的模型检查点--sglang-context-length:可覆盖模型原始上下文长度限制- 其他SGLang参数需添加
--sglang-前缀,如--sglang-mem-fraction-static
数据格式与处理
输入数据格式
slime目前仅支持.jsonl格式,每行包含一个JSON对象,示例:
{
"prompt": [{"content": "数学问题...", "role": "user"}],
"label": "34",
"metadata": {"difficulty": "hard"}
}
关键配置参数:
--input-key:指定输入字段(如"prompt")--label-key:指定标签字段(如"label")--apply-chat-template:是否应用聊天模板
自定义训练流程
1. 自定义Rollout函数
slime支持不同级别的数据生成定制:
基础定制:替换默认的generate_rollout函数
- 通过
--rollout-function-path指定自定义实现 - 函数需返回包含tokens、response_length、reward等字段的Sample对象
高级定制:仅替换生成逻辑
- 通过
--custom-generate-function-path指定 - 实现异步生成接口,与SGLang router交互
2. 自定义Reward模型
通过--custom-rm-path参数可以指定自定义的reward模型实现,用于替代默认的奖励计算逻辑。
技术深度解析
SGLang集成原理
slime通过HttpServerEngineAdapter桥接层实现了与SGLang的深度集成:
- 使用sglang-router进行负载均衡
- 所有SGLang server通过
/add_worker注册到router - 推理请求通过HTTP发送到router进行分发
Megatron集成原理
slime通过复用Megatron的核心组件实现兼容:
- 直接使用Megatron的
parse_args解析参数 - 复用checkpoint保存/加载逻辑
- 支持通过PYTHONPATH加载自定义Megatron版本
关键扩展点:
--custom-megatron-init-path:自定义初始化逻辑--custom-megatron-before-train-step-hook:训练步前回调
最佳实践建议
-
资源分配:
- 训推分离时确保推理资源充足
- 训推一体时合理设置
--sglang-mem-fraction-static
-
模型配置:
- 优先使用torch_dist格式检查点
- 确保并行策略与硬件匹配
-
性能优化:
- 合理配置重计算参数
- 根据任务特点调整数据生成策略
-
定制开发:
- 从小范围hook开始扩展功能
- 充分利用现有Sample数据结构
通过本文介绍,您应该已经掌握了使用THUDM/slime进行大模型训练的核心方法。无论是基础训练还是深度定制,slime都提供了灵活的配置选项和扩展接口,能够满足各种复杂场景下的训练需求。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
jiuwenclawJiuwenClaw 是一款基于openJiuwen开发的智能AI Agent,它能够将大语言模型的强大能力,通过你日常使用的各类通讯应用,直接延伸至你的指尖。Python0238- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
AtomGit城市坐标计划AtomGit 城市坐标计划开启!让开源有坐标,让城市有星火。致力于与城市合伙人共同构建并长期运营一个健康、活跃的本地开发者生态。01
electerm开源终端/ssh/telnet/serialport/RDP/VNC/Spice/sftp/ftp客户端(linux, mac, win)JavaScript00
项目优选
收起
deepin linux kernel
C
27
13
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
632
4.16 K
Ascend Extension for PyTorch
Python
471
567
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
932
835
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.51 K
861
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
383
266
暂无简介
Dart
880
210
昇腾LLM分布式训练框架
Python
138
162
AscendNPU-IR是基于MLIR(Multi-Level Intermediate Representation)构建的,面向昇腾亲和算子编译时使用的中间表示,提供昇腾完备表达能力,通过编译优化提升昇腾AI处理器计算效率,支持通过生态框架使能昇腾AI处理器与深度调优
C++
123
188
Oohos_react_native
React Native鸿蒙化仓库
JavaScript
327
382