WebDataset与PyTorch Lightning结合实现大规模数据集高效训练
2025-06-30 15:24:55作者:曹令琨Iris
背景介绍
在处理大规模数据集时,传统的PyTorch数据加载方式往往会遇到内存不足、加载速度慢等问题。WebDataset作为一种高效的解决方案,能够很好地处理TB级别的大规模数据集。本文将详细介绍如何将WebDataset与PyTorch Lightning框架结合,实现高效的大规模数据训练。
核心挑战
在大规模数据集训练中,我们面临几个关键挑战:
- 多GPU支持:大规模数据集训练必须支持多GPU并行
- 进度可视化:需要准确显示每个epoch的训练步数
- 数据分片处理:需要高效处理分布在多个tar文件中的数据
解决方案架构
1. 数据预处理与统计
首先需要统计数据集的基本信息。对于Laion115M这样的超大规模数据集,我们编写并行脚本扫描所有tar文件,记录每个文件包含的样本数,并将结果存储在JSON文件中:
{
"/data/laion115m/00000.tar": 1147,
"/data/laion115m/00001.tar": 1203,
...
}
2. WebDataset基础使用
WebDataset的基本使用方式如下:
dataset = wds.WebDataset(url)
.shuffle(1000)
.decode('pilrgb', handler=wds.warn_and_continue)
.to_tuple("jpg", "txt", handler=wds.warn_and_continue)
.map(transforms)
3. 自定义IterableDataset实现
为了实现多GPU支持和进度显示,我们自定义IterableDataset:
class Iter_ds(torch.utils.data.IterableDataset):
def __init__(self, urls, transforms, n_sample):
self.urls = urls
self.transforms = transforms
self.n_sample = n_sample
def __len__(self):
return self.n_sample // get_world_size()
def __iter__(self):
process_rank = get_rank()
world_size = get_world_size()
for url in self.urls:
dataset = wds.WebDataset(url, nodesplitter=wds.split_by_worker)
.shuffle(1000)
.decode('pilrgb', handler=wds.warn_and_continue)
.to_tuple("jpg", "txt", handler=wds.warn_and_continue)
.map(self.transforms)
for batch_id, sample in enumerate(dataset):
if batch_id % world_size == process_rank:
yield sample
else:
continue
4. PyTorch Lightning集成
将上述实现集成到PyTorch Lightning的DataModule中:
class Laion115M(pl.LightningDataModule):
def __init__(self, data_dir, split_ratio, img_transforms, txt_transforms,
num_workers=4, batch_size=16, num_epoch=1, pin_memory=False):
super().__init__()
self.data_dir = Path(data_dir)
self.split_ratio = split_ratio
self.img_transforms = img_transforms
self.txt_transforms = txt_transforms
self.transforms = lambda tup: (self.img_transforms(tup[0]), self.txt_transforms(tup[1]))
self.batch_size = batch_size
self.num_epoch = num_epoch
self.num_workers = num_workers
self.pin_memory = pin_memory
def prepare_data(self):
with open(self.data_dir, 'r') as f:
self.tar_dict = json.load(f)
tar_lst = list(self.tar_dict.keys())
n_shard = len(tar_lst)
tra_ratio, val_ratio, _ = self.split_ratio
self.tra_lst = tar_lst[:int(n_shard * tra_ratio)]
self.val_lst = tar_lst[len(self.tra_lst):len(self.tra_lst)+int(n_shard * val_ratio)]
self.tst_lst = tar_lst[len(self.tra_lst)+len(self.val_lst):]
def _get_sample_num(self, tar_lst):
return sum(self.tar_dict[tar_key] for tar_key in tar_lst)
def setup(self, stage='train'):
self.prepare_data()
if stage == 'train':
n_tra_sample = self._get_sample_num(self.tra_lst)
self.laion_train = Iter_ds(self.tra_lst, transforms=self.transforms, n_sample=n_tra_sample)
n_val_sample = self._get_sample_num(self.val_lst)
self.laion_valid = Iter_ds(self.val_lst, transforms=self.transforms, n_sample=n_val_sample)
else:
n_tst_sample = self._get_sample_num(self.tst_lst)
self.laion_test = Iter_ds(self.tst_lst, transforms=self.transforms, n_sample=n_tst_sample)
def train_dataloader(self):
return torch.utils.data.DataLoader(
self.laion_train,
batch_size=self.batch_size,
shuffle=False,
pin_memory=True,
num_workers=self.num_workers,
prefetch_factor=2,
drop_last=True
)
性能优化技巧
-
多节点训练注意事项:
- 网络带宽是瓶颈,尽量减少节点间通信
- 梯度同步会占用大量网络资源
- 每个GPU对应一个进程,进程间通信也会影响性能
-
数据加载优化:
- 使用
pin_memory=True将数据预先加载到内存 - 设置
prefetch_factor预取数据 - 合理设置
num_workers数量
- 使用
-
数据打乱策略:
- 对于分类数据集等有序数据必须打乱
- 对于Laion115M等网络爬取数据可不严格打乱
- 使用
DistributedSampler自动处理多GPU数据分片
版本兼容性
经过测试,以下版本组合工作良好:
- WebDataset: 0.2.86
- PyTorch Lightning: 2.2.1
- PyTorch: 2.2.0+cu118
总结
本文介绍了WebDataset与PyTorch Lightning结合处理大规模数据集的完整方案。通过自定义IterableDataset和合理的数据分片策略,我们实现了多GPU支持、训练进度可视化等关键功能。对于超大规模数据集训练,这种方案能够有效解决内存和性能问题,是处理TB级数据集的理想选择。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
jiuwenclawJiuwenClaw 是一款基于openJiuwen开发的智能AI Agent,它能够将大语言模型的强大能力,通过你日常使用的各类通讯应用,直接延伸至你的指尖。Python0202- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
AtomGit城市坐标计划AtomGit 城市坐标计划开启!让开源有坐标,让城市有星火。致力于与城市合伙人共同构建并长期运营一个健康、活跃的本地开发者生态。01
awesome-zig一个关于 Zig 优秀库及资源的协作列表。Makefile00
热门内容推荐
最新内容推荐
项目优选
收起
deepin linux kernel
C
27
12
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
606
4.05 K
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
69
21
暂无简介
Dart
848
205
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.47 K
829
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
喝着茶写代码!最易用的自托管一站式代码托管平台,包含Git托管,代码审查,团队协作,软件包和CI/CD。
Go
24
0
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
923
771
🎉 基于Spring Boot、Spring Cloud & Alibaba、Vue3 & Vite、Element Plus的分布式前后端分离微服务架构权限管理系统
Vue
235
152
昇腾LLM分布式训练框架
Python
130
156