Effective LLM Alignment Toolkit 使用指南
2025-04-19 04:02:10作者:胡易黎Nicole
1. 项目目录结构及介绍
Effective LLM Alignment Toolkit 的项目目录结构如下:
effective_llm_alignment/
├── accelerate/
│ ├── __init__.py
│ └── fsdp_gradop_config.yaml
├── deepspeed_configs/
│ └── ...
├── scripts/
│ ├── __init__.py
│ └── sft.py
├── src/
│ ├── __init__.py
│ ├── accelerate
│ ├── datasets
│ ├── prompts
│ ├── training
│ └── ...
├── training_configs/
│ └── sft/
│ └── sft-phi4-lora-GrandmasterRAG-v4.yaml
├── .gitignore
├── LICENSE
├── README.md
├── poetry.lock
└── pyproject.toml
目录说明:
accelerate/:包含加速训练的配置文件。deepspeed_configs/:存放 DeepSpeed 的配置文件。scripts/:包含启动训练脚本。src/:源代码目录,包含模型定义、数据处理、提示符优化等模块。training_configs/:训练配置文件目录。.gitignore:Git 忽略文件列表。LICENSE:项目许可证信息。README.md:项目说明文件。poetry.lock:Poetry 包管理工具的锁文件。pyproject.toml:项目配置文件。
2. 项目的启动文件介绍
项目的启动文件位于 scripts/ 目录下,例如 sft.py。该文件是启动训练脚本的入口,它将读取配置文件,并执行模型训练的相关操作。
启动脚本的基本使用方法如下:
PYTHONPATH="${PYTHONPATH}:src/" poetry run accelerate launch --config_file accelerate/fsdp_gradop_config.yaml scripts/sft.py training_configs/sft/sft-phi4-lora-GrandmasterRAG-v4.yaml
参数说明:
PYTHONPATH:设置 Python 搜索路径,以便能够找到src/目录下的模块。poetry run:使用 Poetry 管理项目依赖。accelerate launch:启动加速训练的命令。--config_file:指定加速训练的配置文件。scripts/sft.py:启动脚本文件。training_configs/sft/sft-phi4-lora-GrandmasterRAG-v4.yaml:训练配置文件。
3. 项目的配置文件介绍
项目的配置文件位于 training_configs/ 目录下,例如 sft/sft-phi4-lora-GrandmasterRAG-v4.yaml。配置文件使用 YAML 格式,定义了训练过程中的各种参数。
以下是一个配置文件的示例:
model_name_or_path: "unsloth/Meta-Llama-3.1-8B-Instruct"
dataset:
- "Vikhrmodels/GrandMaster-PRO-MAX"
- "Vikhrmodels/Grounded-RAG-RU-v2"
train_only_on_completions: True
per_device_train_batch_size: 1
per_device_eval_batch_size: 1
num_train_epochs: 1
save_strategy: "steps"
save_steps: 400
save_total_limit: 6
learning_rate: 0.00004
gradient_accumulation_steps: 8
gradient_checkpointing: True
logging_steps: 1
remove_unused_columns: False
dataloader_num_workers: 2
save_only_model: True
generate_eval_examples: True
use_liger: True
max_seq_length: 16000
evaluation_strategy: "steps"
eval_steps: 400
run_name: "sft-grndmrag-llama-3.1-unsloth-lora-256-qkvogud"
参数说明:
model_name_or_path:指定预训练模型的路径。dataset:训练数据集的路径列表。train_only_on_completions:是否只训练完整回答。per_device_train_batch_size:每个设备上的训练批次大小。per_device_eval_batch_size:每个设备上的评估批次大小。num_train_epochs:训练的轮数。save_strategy、save_steps、save_total_limit:模型保存的策略和步数限制。learning_rate:学习率。gradient_accumulation_steps:梯度累积的步数。gradient_checkpointing:是否开启梯度检查点。logging_steps:日志打印的步数。remove_unused_columns:是否移除未使用的列。dataloader_num_workers:数据加载器的工作线程数。save_only_model:是否只保存模型。generate_eval_examples:是否生成评估示例。use_liger:是否使用 Liger 内核。max_seq_length:最大序列长度。evaluation_strategy、eval_steps:评估策略和步数。run_name:运行名称。
登录后查看全文
热门项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
jiuwenclawJiuwenClaw 是一款基于openJiuwen开发的智能AI Agent,它能够将大语言模型的强大能力,通过你日常使用的各类通讯应用,直接延伸至你的指尖。Python0204- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
AtomGit城市坐标计划AtomGit 城市坐标计划开启!让开源有坐标,让城市有星火。致力于与城市合伙人共同构建并长期运营一个健康、活跃的本地开发者生态。01
awesome-zig一个关于 Zig 优秀库及资源的协作列表。Makefile00
热门内容推荐
最新内容推荐
项目优选
收起
deepin linux kernel
C
27
12
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
609
4.05 K
Ascend Extension for PyTorch
Python
447
534
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
924
774
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.47 K
829
暂无简介
Dart
851
205
React Native鸿蒙化仓库
JavaScript
322
377
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
69
21
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
372
251
昇腾LLM分布式训练框架
Python
131
157