首页
/ 【亲测免费】 Wan2.1 开源项目教程

【亲测免费】 Wan2.1 开源项目教程

2026-01-30 05:17:10作者:齐添朝

1. 项目介绍

Wan2.1 是一个开放且先进的大规模视频生成模型套件,旨在推动视频生成领域的边界。它具备以下关键特性:

  • SOTA性能:Wan2.1 在多个基准测试中始终优于现有的开源模型和最先进的商业解决方案。
  • 支持消费级GPU:T2V-1.3B 模型仅需要8.19 GB VRAM,与几乎所有消费级GPU兼容。它可以在RTX 4090 上大约4分钟内生成5秒的480P视频(无需优化技术如量化)。
  • 多任务处理:Wan2.1 在文本到视频、图像到视频、视频编辑、文本到图像和视频到音频等多种任务中表现出色。
  • 视觉文本生成:Wan2.1 是第一个能够生成中文和英文文本的视频模型,具有强大的文本生成功能,提高了其实际应用性。
  • 强大的视频VAE:Wan-VAE 提供了卓越的效率和性能,编码和解码任意长度的1080P视频,同时保持时间信息,是视频和图像生成的理想基础。

2. 项目快速启动

首先,克隆仓库:

git clone https://github.com/Wan-Video/Wan2.1.git
cd Wan2.1

然后,安装依赖:

# 确保torch版本大于等于2.4.0
pip install -r requirements.txt

接下来,下载模型。这里以 Huggingface 的方式进行下载为例:

pip install "huggingface_hub[cli]"
huggingface-cli download Wan-AI/Wan2.1-T2V-14B --local-dir ./Wan2.1-T2V-14B

运行文本到视频生成的基本示例:

python generate.py --task t2v-14B --size 1280x720 --ckpt_dir ./Wan2.1-T2V-14B --prompt "两个穿着舒适拳击装备和明亮手套的人形猫在聚光灯下的舞台上激烈战斗。"

如果遇到内存不足的问题,可以使用 --offload_model True--t5_cpu 选项来减少GPU内存使用。

3. 应用案例和最佳实践

文本到视频生成

使用以下命令生成视频:

python generate.py --task t2v-14B --size 1280x720 --ckpt_dir ./Wan2.1-T2V-14B --prompt "两个穿着舒适拳击装备和明亮手套的人形猫在聚光灯下的舞台上激烈战斗。" --sample_guide_scale 6 --sample_shift 8

图像到视频生成

类似地,可以调整 --task 参数来生成图像到视频的内容。

4. 典型生态项目

Wan2.1 已经被集成到多个生态项目中,例如 ComfyUI 和 Diffusers。这些项目的集成可以为用户提供更多样化的视频生成和编辑功能。

以上就是关于 Wan2.1 开源项目的教程,希望对您有所帮助!

登录后查看全文
热门项目推荐
相关项目推荐