WebDataset与PyTorch Lightning结合实现大规模数据集高效训练
2025-06-30 15:24:55作者:曹令琨Iris
背景介绍
在处理大规模数据集时,传统的PyTorch数据加载方式往往会遇到内存不足、加载速度慢等问题。WebDataset作为一种高效的解决方案,能够很好地处理TB级别的大规模数据集。本文将详细介绍如何将WebDataset与PyTorch Lightning框架结合,实现高效的大规模数据训练。
核心挑战
在大规模数据集训练中,我们面临几个关键挑战:
- 多GPU支持:大规模数据集训练必须支持多GPU并行
- 进度可视化:需要准确显示每个epoch的训练步数
- 数据分片处理:需要高效处理分布在多个tar文件中的数据
解决方案架构
1. 数据预处理与统计
首先需要统计数据集的基本信息。对于Laion115M这样的超大规模数据集,我们编写并行脚本扫描所有tar文件,记录每个文件包含的样本数,并将结果存储在JSON文件中:
{
"/data/laion115m/00000.tar": 1147,
"/data/laion115m/00001.tar": 1203,
...
}
2. WebDataset基础使用
WebDataset的基本使用方式如下:
dataset = wds.WebDataset(url)
.shuffle(1000)
.decode('pilrgb', handler=wds.warn_and_continue)
.to_tuple("jpg", "txt", handler=wds.warn_and_continue)
.map(transforms)
3. 自定义IterableDataset实现
为了实现多GPU支持和进度显示,我们自定义IterableDataset:
class Iter_ds(torch.utils.data.IterableDataset):
def __init__(self, urls, transforms, n_sample):
self.urls = urls
self.transforms = transforms
self.n_sample = n_sample
def __len__(self):
return self.n_sample // get_world_size()
def __iter__(self):
process_rank = get_rank()
world_size = get_world_size()
for url in self.urls:
dataset = wds.WebDataset(url, nodesplitter=wds.split_by_worker)
.shuffle(1000)
.decode('pilrgb', handler=wds.warn_and_continue)
.to_tuple("jpg", "txt", handler=wds.warn_and_continue)
.map(self.transforms)
for batch_id, sample in enumerate(dataset):
if batch_id % world_size == process_rank:
yield sample
else:
continue
4. PyTorch Lightning集成
将上述实现集成到PyTorch Lightning的DataModule中:
class Laion115M(pl.LightningDataModule):
def __init__(self, data_dir, split_ratio, img_transforms, txt_transforms,
num_workers=4, batch_size=16, num_epoch=1, pin_memory=False):
super().__init__()
self.data_dir = Path(data_dir)
self.split_ratio = split_ratio
self.img_transforms = img_transforms
self.txt_transforms = txt_transforms
self.transforms = lambda tup: (self.img_transforms(tup[0]), self.txt_transforms(tup[1]))
self.batch_size = batch_size
self.num_epoch = num_epoch
self.num_workers = num_workers
self.pin_memory = pin_memory
def prepare_data(self):
with open(self.data_dir, 'r') as f:
self.tar_dict = json.load(f)
tar_lst = list(self.tar_dict.keys())
n_shard = len(tar_lst)
tra_ratio, val_ratio, _ = self.split_ratio
self.tra_lst = tar_lst[:int(n_shard * tra_ratio)]
self.val_lst = tar_lst[len(self.tra_lst):len(self.tra_lst)+int(n_shard * val_ratio)]
self.tst_lst = tar_lst[len(self.tra_lst)+len(self.val_lst):]
def _get_sample_num(self, tar_lst):
return sum(self.tar_dict[tar_key] for tar_key in tar_lst)
def setup(self, stage='train'):
self.prepare_data()
if stage == 'train':
n_tra_sample = self._get_sample_num(self.tra_lst)
self.laion_train = Iter_ds(self.tra_lst, transforms=self.transforms, n_sample=n_tra_sample)
n_val_sample = self._get_sample_num(self.val_lst)
self.laion_valid = Iter_ds(self.val_lst, transforms=self.transforms, n_sample=n_val_sample)
else:
n_tst_sample = self._get_sample_num(self.tst_lst)
self.laion_test = Iter_ds(self.tst_lst, transforms=self.transforms, n_sample=n_tst_sample)
def train_dataloader(self):
return torch.utils.data.DataLoader(
self.laion_train,
batch_size=self.batch_size,
shuffle=False,
pin_memory=True,
num_workers=self.num_workers,
prefetch_factor=2,
drop_last=True
)
性能优化技巧
-
多节点训练注意事项:
- 网络带宽是瓶颈,尽量减少节点间通信
- 梯度同步会占用大量网络资源
- 每个GPU对应一个进程,进程间通信也会影响性能
-
数据加载优化:
- 使用
pin_memory=True将数据预先加载到内存 - 设置
prefetch_factor预取数据 - 合理设置
num_workers数量
- 使用
-
数据打乱策略:
- 对于分类数据集等有序数据必须打乱
- 对于Laion115M等网络爬取数据可不严格打乱
- 使用
DistributedSampler自动处理多GPU数据分片
版本兼容性
经过测试,以下版本组合工作良好:
- WebDataset: 0.2.86
- PyTorch Lightning: 2.2.1
- PyTorch: 2.2.0+cu118
总结
本文介绍了WebDataset与PyTorch Lightning结合处理大规模数据集的完整方案。通过自定义IterableDataset和合理的数据分片策略,我们实现了多GPU支持、训练进度可视化等关键功能。对于超大规模数据集训练,这种方案能够有效解决内存和性能问题,是处理TB级数据集的理想选择。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
热门内容推荐
最新内容推荐
跨系统应用融合:APK Installer实现Windows环境下安卓应用运行的技术路径探索如何用OpCore Simplify构建稳定黑苹果系统?掌握这3大核心策略ComfyUI-LTXVideo实战攻略:3大核心场景的视频生成解决方案告别3小时抠像噩梦:AI如何让人人都能制作电影级视频Anki Connect:知识管理与学习自动化的API集成方案Laigter法线贴图生成工具零基础实战指南:提升2D游戏视觉效率全攻略如何用智能助手实现高效微信自动回复?全方位指南3步打造高效游戏自动化工具:从入门到精通的智能辅助方案掌握语音分割:从入门到实战的完整路径开源翻译平台完全指南:从搭建到精通自托管翻译服务
项目优选
收起
deepin linux kernel
C
28
16
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
572
99
暂无描述
Dockerfile
710
4.51 K
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
958
955
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.61 K
942
Ascend Extension for PyTorch
Python
572
694
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
413
339
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.43 K
116
暂无简介
Dart
952
235
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
2