5分钟上手大模型强化学习!verl全流程安装指南
你还在为复杂的大模型训练框架配置发愁?还在因环境依赖问题浪费数小时?本文将带你5分钟完成verl(Volcano Engine Reinforcement Learning for LLMs)的安装部署,从环境准备到运行第一个强化学习任务,全程无坑指南让你专注模型训练本身。
安装准备:环境要求速查表
在开始安装前,请确保你的系统满足以下最低要求:
| 依赖项 | 版本要求 | 官方文档 |
|---|---|---|
| Python | ≥ 3.10 | 安装文档 |
| CUDA | ≥ 12.1 | NVIDIA CUDA文档 |
| 训练后端 | FSDP/Megatron-LM(可选) | Megatron Workers |
| 推理引擎 | SGLang/vLLM/TGI | SGLang后端 |
⚠️ 注意:不同推理引擎对PyTorch版本有严格要求,建议优先安装推理框架再配置其他依赖,避免版本冲突。
快速安装:三种方式任你选
1. Docker一键部署(推荐)
verl提供预构建的Docker镜像,包含所有依赖环境,适合快速上手:
# 拉取基础镜像(以v0.5版本为例)
docker pull verlai/verl:base-verl0.5-cu126-cudnn9.8-torch2.7.1-fa2.7.4
# 创建并启动容器
docker create --runtime=nvidia --gpus all --net=host --shm-size="10g" \
--name verl_container -v $PWD:/workspace/verl verlai/verl:base-verl0.5-cu126-cudnn9.8-torch2.7.1-fa2.7.4 sleep infinity
docker start verl_container
docker exec -it verl_container bash
# 安装verl
git clone https://gitcode.com/GitHub_Trending/ve/verl && cd verl
pip3 install --no-deps -e .
Dockerfile源码:docker/verl0.5-cu126-torch2.7.1-fa2.8.0/Dockerfile.base
2. 自定义环境安装
适合需要灵活配置的开发者,使用官方提供的安装脚本:
# 创建conda环境
conda create -n verl python==3.10 -y
conda activate verl
# 运行安装脚本(支持Megatron可选安装)
git clone https://gitcode.com/GitHub_Trending/ve/verl && cd verl
USE_MEGATRON=1 bash scripts/install_vllm_sglang_mcore.sh
# 安装verl本体
pip install --no-deps -e .
安装脚本源码:scripts/install_vllm_sglang_mcore.sh
3. AMD GPU支持(ROCm平台)
针对MI300等AMD显卡,需使用专用Dockerfile构建:
# 构建镜像
docker build -f docker/Dockerfile.rocm -t verl-rocm .
# 启动容器
docker run --rm -it --device /dev/dri --device /dev/kfd \
--shm-size 128G -v $PWD:/workspace verl-rocm /bin/bash
AMD配置详情:ROCm Dockerfile
基础使用:训练你的第一个模型
快速启动示例任务
以数学推理任务(GSM8K+MATH数据集)为例,使用GRPO算法训练Qwen2-7B模型:
# 下载示例脚本
cd examples/grpo_trainer
# 运行训练(8卡GPU配置)
bash run_qwen2-7b_math.sh
脚本参数说明:
algorithm.adv_estimator=grpo:指定使用GRPO算法actor_rollout_ref.model.path=Qwen/Qwen2-7B-Instruct:基础模型路径data.train_batch_size=1024:训练批次大小trainer.total_epochs=15:训练轮数
完整示例配置:GRPO训练脚本
训练流程解析
verl的强化学习训练流程包含以下关键步骤:
graph TD
A[数据准备] --> B[策略模型初始化]
B --> C[生成rollout样本]
C --> D[计算奖励分数]
D --> E[策略更新]
E --> F{达到训练轮数?}
F -->|是| G[模型保存]
F -->|否| C
- 数据准备:支持Parquet格式数据集,需包含prompt和response字段
- Rollout生成:使用vLLM/SGLang引擎高效生成样本
- 奖励计算:通过Reward Model或人工标注计算奖励
- 策略更新:支持PPO/GRPO等多种强化学习算法
详细流程文档:PPO代码架构
进阶功能:解锁更多能力
多节点训练配置
当单节点GPU不足时,可通过Ray启动多节点训练:
# 启动head节点
ray start --head --node-ip-address=192.168.1.100
# 其他节点加入集群
ray start --address=192.168.1.100:6379
# 运行多节点训练
bash examples/grpo_trainer/run_qwen3-235b_megatron_96gb.sh
多节点配置示例:SkyPilot示例
性能优化技巧
- 模型并行:使用
actor_rollout_ref.rollout.tensor_model_parallel_size配置TP - 内存优化:开启
param_offload和optimizer_offload节省显存 - 混合精度:默认启用bfloat16,可通过
model.dtype调整
性能调优指南:性能优化文档
常见问题解决
1. 依赖冲突
症状:安装vLLM后PyTorch版本被降级 解决:从源码编译vLLM以适配现有PyTorch:
git clone -b v0.10.0 https://github.com/vllm-project/vllm.git
cd vllm && MAX_JOBS=8 python setup.py install
2. 训练卡顿
症状:GPU利用率波动大,训练速度慢 解决:调整微批次大小:
actor_rollout_ref.actor.ppo_micro_batch_size_per_gpu=16
完整FAQ:常见问题
总结与下一步
通过本文你已掌握: ✅ verl环境的快速部署方法 ✅ 单节点/多节点训练流程 ✅ 基础参数调优技巧
下一步推荐:
📌 提示:定期查看更新日志获取最新功能和bug修复信息。
欢迎在GitHub上给项目点赞收藏,关注后续教程!
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
GLM-4.7-FlashGLM-4.7-Flash 是一款 30B-A3B MoE 模型。作为 30B 级别中的佼佼者,GLM-4.7-Flash 为追求性能与效率平衡的轻量化部署提供了全新选择。Jinja00
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin07
compass-metrics-modelMetrics model project for the OSS CompassPython00