360-LLaMA-Factory 使用教程
2026-01-30 04:25:11作者:凤尚柏Louis
1. 项目介绍
360-LLaMA-Factory 是基于 LLaMA-Factory 的开源项目,它引入了序列并行性(Sequence Parallelism,简称 SP)技术。这种技术能够有效提升大型语言模型训练的性能,尤其是在处理长序列时。项目在保留 LLaMA-Factory 原有功能的基础上,通过最小的代码改动实现了序列并行性,具有高度的模块化,并经过了正确性验证。
2. 项目快速启动
在开始之前,请确保您的环境中已安装 Python 3.11。
新建 Python 环境
conda create -n 360-llama-factory python=3.11 -y
激活环境:
conda activate 360-llama-factory
克隆代码库
git clone https://github.com/Qihoo360/360-LLaMA-Factory.git
cd 360-LLaMA-Factory
安装依赖
pip install -e ".[torch,metrics,deepspeed]"
配置文件
在配置文件中设置 sequence_parallel_size 和 cutoff_len:
sequence_parallel_size: 4
cutoff_len: 128000
或者,在命令行中设置这些参数:
deepspeed --hostfile=8nodes.host src/train.py \
--sequence_parallel_size 4 \
--cutoff_len 128000 \
...
运行训练
使用 DeepSpeed 启动训练:
deepspeed --hostfile=8nodes.host src/train.py
3. 应用案例和最佳实践
以下是使用 360-LLaMA-Factory 的一些应用案例和最佳实践:
- 序列并行性训练:通过设置
sequence_parallel_size参数,可以在多个 GPU 上并行处理同一序列的数据,从而提高训练效率。 - 参数配置:合理设置
cutoff_len参数以确保数据能够被正确填充和处理。 - 性能优化:可以通过一些自定义的优化技巧(如注释
logtis = logits.float(),使用 liger kernel,DPO 预计算等)来进一步提升训练性能。
4. 典型生态项目
360-LLaMA-Factory 作为 LLaMA-Factory 的扩展,能够与其他相关项目配合使用,以下是一些典型的生态项目:
- ring-flash-attn:为序列并行性提供支持的关键依赖库。
- trl:Transformers 的扩展库,提供额外的训练和优化功能。
- deepspeed:用于加速模型训练的深度学习优化库。
通过上述介绍和教程,您可以开始使用 360-LLaMA-Factory 来提升您的语言模型训练效率。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
jiuwenclawJiuwenClaw 是一款基于openJiuwen开发的智能AI Agent,它能够将大语言模型的强大能力,通过你日常使用的各类通讯应用,直接延伸至你的指尖。Python0193- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
AtomGit城市坐标计划AtomGit 城市坐标计划开启!让开源有坐标,让城市有星火。致力于与城市合伙人共同构建并长期运营一个健康、活跃的本地开发者生态。01
awesome-zig一个关于 Zig 优秀库及资源的协作列表。Makefile00
项目优选
收起
deepin linux kernel
C
27
12
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
601
4.04 K
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
69
21
Ascend Extension for PyTorch
Python
441
531
AscendNPU-IR是基于MLIR(Multi-Level Intermediate Representation)构建的,面向昇腾亲和算子编译时使用的中间表示,提供昇腾完备表达能力,通过编译优化提升昇腾AI处理器计算效率,支持通过生态框架使能昇腾AI处理器与深度调优
C++
112
170
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.46 K
824
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
922
770
暂无简介
Dart
846
204
React Native鸿蒙化仓库
JavaScript
321
375
openGauss kernel ~ openGauss is an open source relational database management system
C++
174
249