LivePortrait实用指南:从环境搭建到创意动画生成
准备篇:环境搭建与配置
系统环境准备
LivePortrait是一款能够将静态肖像图片转换为动态动画的工具,在开始使用前,需要确保您的系统满足基本运行要求。
推荐配置:
- 操作系统:Ubuntu 20.04+
- 处理器:4核8线程以上CPU
- 内存:16GB RAM
- 显卡:8GB显存以上的NVIDIA GPU(支持CUDA 11.8+)
- 存储空间:20GB可用空间
最低配置:
- 操作系统:Windows 10/11、macOS 12+或Ubuntu 18.04+
- 处理器:双核4线程CPU
- 内存:8GB RAM
- 显卡:4GB显存GPU或CPU模式(性能有限)
- 存储空间:10GB可用空间
环境适配速查表
| 环境配置项 | Windows系统 | macOS系统 | Linux系统 |
|---|---|---|---|
| 包管理器 | Chocolatey | Homebrew | apt/yum |
| Python环境 | Miniconda | Miniconda | Miniconda |
| FFmpeg安装 | 手动下载放置 | brew install ffmpeg |
sudo apt install ffmpeg |
| PyTorch后端 | CUDA | MPS/CPU | CUDA |
| 特殊依赖 | 无 | export PYTORCH_ENABLE_MPS_FALLBACK=1 |
无 |
| 动物模式支持 | 支持 | 不支持 | 支持 |
💡 提示:不同操作系统下的配置差异主要体现在依赖安装方式和硬件加速支持上,Linux系统在性能和兼容性方面表现最佳。
基础环境搭建
1. 安装系统依赖
操作要点:在开始任何操作前,确保系统已安装必要的基础工具。
在项目根目录打开终端,执行以下命令:
# Ubuntu/Debian系统
sudo apt update && sudo apt install -y git wget build-essential
# macOS系统
brew install git wget
2. 创建Python虚拟环境
操作要点:使用conda创建独立虚拟环境,避免依赖冲突。
# 下载并安装Miniconda
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
bash Miniconda3-latest-Linux-x86_64.sh -b -p $HOME/miniconda3
export PATH="$HOME/miniconda3/bin:$PATH"
conda init
# 创建并激活虚拟环境
conda create -n LivePortrait python=3.10 -y
conda activate LivePortrait
3. 获取项目代码
git clone https://gitcode.com/GitHub_Trending/li/LivePortrait
cd LivePortrait
依赖安装与配置
1. 安装基础依赖
# 安装基础依赖包
pip install -r requirements_base.txt
# 安装GPU相关依赖(若无GPU,跳过此步)
pip install -r requirements.txt
2. 安装PyTorch
PyTorch(深度学习框架)是LivePortrait的核心依赖,需要根据您的CUDA版本选择合适的安装命令:
# 检查CUDA版本
nvcc -V
# CUDA 11.8(推荐)
pip install torch==2.3.0 torchvision==0.18.0 torchaudio==2.3.0 --index-url https://download.pytorch.org/whl/cu118
# 若无GPU,安装CPU版本
pip install torch==2.3.0 torchvision==0.18.0 torchaudio==2.3.0 --index-url https://download.pytorch.org/whl/cpu
3. 下载预训练模型
操作要点:预训练模型文件较大(约5GB),确保网络连接稳定。
# 安装huggingface_hub工具
pip install -U "huggingface_hub[cli]"
# 下载预训练权重
huggingface-cli download KwaiVGI/LivePortrait \
--local-dir pretrained_weights \
--exclude "*.git*" "README.md" "docs"
实践检验清单
完成准备工作后,验证以下项目确保环境配置正确:
- [ ] 成功创建并激活LivePortrait虚拟环境
- [ ] 项目代码已克隆到本地
- [ ] 所有依赖包已正确安装
- [ ] 预训练模型已下载至pretrained_weights目录
- [ ] 执行
python -c "import torch; print(torch.cuda.is_available())"返回True(GPU用户)
实践篇:快速上手与基础操作
认识LivePortrait界面
成功配置环境后,我们可以通过Gradio界面(网页图形界面)来使用LivePortrait。启动应用:
# 启动人类模式界面
python app.py
启动成功后,浏览器会自动打开界面,您也可以手动访问终端中显示的URL(通常是http://localhost:7860)。
界面主要分为三个部分:
- 源图像/视频上传区:上传您想要动起来的肖像
- 驱动视频/模板上传区:提供动作参考
- 参数设置区:调整动画效果
人类模式基础操作
1. 快速生成动画
操作要点:首次使用建议先尝试示例文件,熟悉流程。
- 在源图像区域点击"Examples",选择一个示例肖像
- 在驱动视频区域点击"Examples",选择一个动作模板
- 点击"Animate"按钮开始生成
2. 使用自定义图片
# 使用命令行指定自定义图片和驱动视频
python inference.py -s assets/examples/source/s9.jpg -d assets/examples/driving/d0.mp4
参数说明:
-s:源图像路径,支持图片或视频-d:驱动文件路径,支持视频或.pkl模板文件
💡 提示:生成的结果默认保存在results目录下,包含原始尺寸和适配尺寸两个版本的视频。
动物模式使用方法
LivePortrait还支持为动物图片生成动画,但需要额外安装X-Pose依赖:
# 安装动物模式依赖
cd src/utils/dependencies/XPose/models/UniPose/ops
python setup.py build install
cd - # 返回项目根目录
# 启动动物模式界面
python app_animals.py
动物模式使用注意事项:
- 推荐禁用缝合功能(默认已禁用)
- 适当提高运动强度(driving_multiplier建议1.5-2.0)
- 主要支持猫、狗等常见宠物
参数调整与效果优化
LivePortrait提供多种参数调整选项,以获得最佳动画效果:
关键参数说明:
driving option:动画模式,"expression-friendly"适合表情动画,"pose-friendly"适合头部姿态动画driving multiplier:运动强度乘数,值越大动作越夸张stitching:缝合功能,小幅度头部运动时启用可提升效果
操作要点:对于正面肖像,建议使用"expression-friendly"模式并将multiplier设为1.0-1.2;对于侧面肖像或需要大幅度转头的场景,建议使用"pose-friendly"模式。
实践检验清单
- [ ] 成功启动Gradio界面
- [ ] 使用示例文件生成第一个动画
- [ ] 尝试使用自定义图片生成动画
- [ ] 调整不同参数观察效果变化
- [ ] 成功运行动物模式并生成动物动画
进阶篇:高级技巧与问题解决
人像编辑与表情控制
LivePortrait提供高级的人像编辑功能,可以精确控制面部表情和头部姿态:
通过界面上的滑块,您可以调整:
- 头部姿态(偏航、俯仰、翻滚)
- 面部表情(微笑、皱眉、眨眼等)
- 眼睛开合度和视线方向
- 嘴唇开合度和嘴角弧度
操作要点:将"target eyes-open ratio"和"target lip-open ratio"都设为0.8,可以获得自然的表情效果。
性能优化技巧
当遇到运行缓慢或内存不足问题时,可以尝试以下优化方法:
-
使用动作模板文件:
# 首先将视频转换为模板文件 python inference.py -s source.jpg -d driving_video.mp4 # 后续使用模板文件进行快速推理 python inference.py -s source.jpg -d driving_video.pkl -
调整输入分辨率: 编辑
src/config/inference_config.py文件,减小source_max_dim值(默认为1280) -
启用半精度推理:
python inference.py --flag_use_half_precision True
故障排除决策树
当遇到问题时,可按照以下流程排查:
开始
│
├─> 程序无法启动
│ ├─> 检查Python环境是否激活 → conda activate LivePortrait
│ ├─> 检查依赖是否安装完整 → pip install -r requirements.txt
│ └─> 检查CUDA版本是否匹配 → 重新安装对应PyTorch版本
│
├─> 无法检测到人脸
│ ├─> 检查图片质量 → 使用清晰正面照片
│ ├─> 调整检测阈值 → 添加--det_thresh 0.3参数
│ └─> 手动裁剪面部区域 → 使用图像编辑工具预处理
│
├─> 生成视频有黑块
│ └─> 禁用半精度推理 → --flag_use_half_precision False
│
└─> 内存不足错误
├─> 减小输入图像尺寸 → --source_max_dim 1024
├─> 使用CPU模式 → --flag_force_cpu
└─> 清理系统内存 → 关闭其他占用内存的程序
批量处理与自动化
对于需要处理多个文件的场景,可以使用批量处理脚本:
# 创建批量处理脚本(保存为batch_process.sh)
for source in ./input_images/*.jpg; do
for driving in ./driving_templates/*.pkl; do
python inference.py -s "$source" -d "$driving" -o "./results/$(basename "$source" .jpg)_$(basename "$driving" .pkl).mp4"
done
done
# 赋予执行权限并运行
chmod +x batch_process.sh
./batch_process.sh
实践检验清单
- [ ] 成功使用高级编辑功能调整面部表情
- [ ] 优化参数解决至少一个性能问题
- [ ] 使用故障排除流程解决一个实际问题
- [ ] 实现批量处理多个图片
- [ ] 尝试不同的驱动模板,比较动画效果差异
通过本指南,您应该能够顺利搭建LivePortrait环境,掌握基础操作,并解决常见问题。随着实践深入,您可以探索更多高级功能,创造出更加生动有趣的肖像动画效果。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00
jiuwenclawJiuwenClaw 是一款基于openJiuwen开发的智能AI Agent,它能够将大语言模型的强大能力,通过你日常使用的各类通讯应用,直接延伸至你的指尖。Python0245- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
AtomGit城市坐标计划AtomGit 城市坐标计划开启!让开源有坐标,让城市有星火。致力于与城市合伙人共同构建并长期运营一个健康、活跃的本地开发者生态。01
HivisionIDPhotos⚡️HivisionIDPhotos: a lightweight and efficient AI ID photos tools. 一个轻量级的AI证件照制作算法。Python05



