首页
/ UCGM:统一连续生成模型的最佳实践

UCGM:统一连续生成模型的最佳实践

2025-05-21 00:22:27作者:翟江哲Frasier

1. 项目介绍

UCGM(Unified Continuous Generative Models)是一个开源项目,旨在提供一个统一的框架,用于训练、采样和理解连续生成模型,如扩散模型、流匹配模型和一致性模型。该项目由Westlake University和Zhejiang University的研究者共同开发,并在Apache-2.0许可证下发布。UCGM的特点包括:

  • 统一框架:在一个系统中训练和采样扩散、流匹配和一致性模型。
  • 即插即用加速:UCGM-S能够加速预训练模型,减少采样步骤,提高FID(Fréchet Inception Distance)指标。
  • SOTA性能:UCGM-T训练的模型在低步数时性能优于同类模型。
  • 少步掌握:即使是仅2步的模型,也能保持强大的性能。
  • 无引导:UCGM-T训练的模型无需引导技术,简化了模型并提高了速度。

2. 项目快速启动

为了快速启动UCGM项目,你需要遵循以下步骤:

首先,确保你已经安装了Python环境。然后,从Huggingface下载必要的VAEs(变分自编码器) checkpoints、数据集统计文件和FID计算参考文件。

接下来,运行以下Shell命令准备数据集(如果不需要训练模型,则跳过此步骤):

bash scripts/data/in1k256.sh

现在,你可以使用以下命令来生成图像和评估FID:

bash scripts/run_eval.sh ./configs/sampling_multi_steps/in1k256_sit_xl_repae_linear.yaml

3. 应用案例和最佳实践

生成图像

使用预训练的少步模型生成样本:

bash scripts/run_eval.sh ./configs/training_few_steps/in1k256_tit_xl_vavae.yaml

训练模型

训练一个新的多步模型(完整训练):

bash scripts/run_train.sh ./configs/training_multi_steps/in1k512_tit_xl_dcae.yaml

将多步模型转换为少步模型(需要预训练的多步模型checkpoint):

bash scripts/run_train.sh ./configs/training_few_steps/in1k512_tit_xl_dcae.yaml

注意:少步训练需要从多步checkpoint初始化:

{
  "model": "multi_step_ckpt",
  "ema": "multi_step_ckpt_ema"
}

4. 典型生态项目

UCGM作为一个开源项目,可以与多个生态项目配合使用,例如:

  • REPA-E:用于图像生成的预训练模型。
  • Lightning-DiT:基于PyTorch Lightning的Diffusion Transformer模型。
  • DDT:基于深度学习的图像生成模型。

通过整合这些项目,可以进一步扩展UCGM的功能和应用范围。

登录后查看全文
热门项目推荐