首页
/ WoVoGen开源项目教程

WoVoGen开源项目教程

2025-05-21 05:26:28作者:尤峻淳Whitney

1. 项目介绍

WoVoGen(World Volume-aware Diffusion for Controllable Multi-camera Driving Scene Generation)是一个由复旦大学团队开发的开源项目,旨在生成具有时空一致性的多摄像头驾驶场景视频。该项目通过利用4D世界体积(World Volume)和先进的扩散模型,不仅能够生成高质量的街道视图视频,还能够支持场景编辑和多样化样本生成,为自动驾驶数据集的增强提供了强有力的工具。

2. 项目快速启动

环境准备

确保您的系统中已安装以下版本的Python和torch:

  • Python == 3.9
  • torch == 2.1.0

数据准备

首先,您需要准备Nuscenes数据集并将其转换为项目所需的格式:

python tools/nuscenes_convertor.py \
--nusc_root=$NUSC_ROOT \
--nusc_occ_root=$NUSC_OCC_ROOT \
--out_root=$OUT_ROOT \
--vae  # 添加图像潜在特征到世界体积

生成对象指导

使用以下命令生成对象指导:

python tools/clip_convertor.py

单帧生成

  1. 添加权重到模型:
python tools/add_weight.py \
models/v2-1_512-ema-pruned.ckpt \
models/wovogen_single.ckpt
  1. 训练单帧模型:
python train_single_frame.py \
--config_path models/cldm_v21_c64_256x448_6cat_clip_local_high_dim.yaml \
--resume-path=models/wovogen_single.ckpt

3. 应用案例和最佳实践

场景生成

WoVoGen擅长生成具有时间一致性的未来世界体积,并利用这些信息生成多摄像头视频。以下是一个简单的生成流程:

  1. 准备训练好的模型权重和配置文件。
  2. 使用模型生成世界体积。
  3. 根据生成的世界体积合成多摄像头视频。

控制和编辑

WoVoGen允许用户通过改变随机种子、天气条件和位置来生成多样化的场景。此外,还可以通过修改世界体积中的特定对象(如树木、建筑物、车辆等)来精确生成多样化的驾驶场景。

4. 典型生态项目

WoVoGen的生态项目包括但不限于以下几种:

  • Stable Diffusion: 用于生成高质量图像的扩散模型。
  • ControlNet: 提供额外的控制输入,以引导生成过程。

通过集成这些生态项目,您可以进一步扩展WoVoGen的功能和应用范围。

登录后查看全文
热门项目推荐