如何快速上手LivePortrait:让静态肖像动起来的终极AI动画工具指南
LivePortrait是一款基于PyTorch框架的高效肖像动画开源项目,通过拼接和重定向控制技术,帮助用户轻松将静态肖像图片或视频转化为生动自然的动画效果。无论是制作社交媒体内容、虚拟教学形象还是增强现实应用,这款工具都能提供专业级的动画解决方案。
🎬 为什么选择LivePortrait?令人惊叹的动画效果展示
LivePortrait能够实现高质量的肖像动画效果,支持人类和动物两种模式,让静态图像瞬间"活"起来。以下是项目展示的动画效果:
从展示效果可以看到,LivePortrait生成的动画不仅动作流畅自然,还能精准捕捉面部表情细节,让静态肖像拥有了生动的表现力。
🚀 快速开始:三步实现你的第一个肖像动画
1️⃣ 环境准备与安装
首先确保你的系统已安装git、conda和FFmpeg。然后通过以下命令克隆项目并创建虚拟环境:
git clone https://gitcode.com/GitHub_Trending/li/LivePortrait
cd LivePortrait
# 创建并激活虚拟环境
conda create -n LivePortrait python=3.10
conda activate LivePortrait
根据你的操作系统选择对应的依赖安装方式:
Linux或Windows用户:
pip install -r requirements.txt
macOS用户(Apple Silicon):
pip install -r requirements_macOS.txt
2️⃣ 下载预训练权重
使用以下命令从HuggingFace下载预训练权重:
# 安装huggingface_hub(如果尚未安装)
pip install -U "huggingface_hub[cli]"
# 下载权重
huggingface-cli download KwaiVGI/LivePortrait --local-dir pretrained_weights --exclude "*.git*" "README.md" "docs"
权重文件将保存在./pretrained_weights目录下,确保目录结构正确。
3️⃣ 运行你的第一个动画生成
完成上述步骤后,你可以立即生成你的第一个肖像动画:
人类模式:
# Linux和Windows用户
python inference.py
# macOS用户(Apple Silicon)
PYTORCH_ENABLE_MPS_FALLBACK=1 python inference.py
如果一切顺利,你将在animations目录下找到生成的动画文件animations/s6--d0_concat.mp4。
你也可以自定义输入的源图像/视频和驱动视频:
# 使用自定义图像作为源
python inference.py -s assets/examples/source/s9.jpg -d assets/examples/driving/d0.mp4
# 使用视频作为源(视频转视频)
python inference.py -s assets/examples/source/s13.mp4 -d assets/examples/driving/d0.mp4
🐾 动物模式:让宠物照片也动起来
LivePortrait不仅支持人类肖像动画,还提供了动物模式,可以为猫、狗等宠物照片生成生动动画。
⚠️ 注意:动物模式目前仅在Linux和Windows系统的NVIDIA GPU上测试通过。
使用动物模式前,需要先构建一个必要的OP:
cd src/utils/dependencies/XPose/models/UniPose/ops
python setup.py build install
cd - # 返回项目根目录
然后运行动物模式推理:
python inference_animals.py -s assets/examples/source/s39.jpg -d assets/examples/driving/wink.pkl --driving_multiplier 1.75 --no_flag_stitching
💻 使用Gradio界面:更直观的交互体验
为了提供更好的用户体验,LivePortrait还提供了Gradio界面,通过图形化方式操作,无需命令行:
人类模式界面:
# Linux和Windows用户
python app.py
# macOS用户(Apple Silicon)
PYTORCH_ENABLE_MPS_FALLBACK=1 python app.py
动物模式界面:
python app_animals.py
运行后,在浏览器中打开显示的URL即可使用直观的界面进行肖像动画制作。
📌 最佳实践与技巧
驱动视频的最佳设置
为获得最佳动画效果,建议驱动视频满足以下条件:
- 裁剪为1:1的宽高比(如512x512像素)
- 画面主要聚焦于头部区域
- 尽量减少肩膀移动
- 驱动视频的第一帧应为中性表情的正面人脸
你也可以使用自动裁剪功能:
python inference.py -s assets/examples/source/s9.jpg -d assets/examples/driving/d13.mp4 --flag_crop_driving_video
使用动作模板加速推理
项目提供了预生成的动作模板文件(.pkl格式),可以加速推理并保护隐私:
python inference.py -s assets/examples/source/s9.jpg -d assets/examples/driving/d5.pkl
🐱 动物模式专用技巧
动物模式需要一些额外设置才能获得最佳效果:
- 确保已正确安装X-Pose依赖
- 使用适当的驱动乘数(如--driving_multiplier 1.75)调整动作幅度
- 对于某些动物,可能需要禁用拼接功能(--no_flag_stitching)
🛠️ 项目结构与核心模块
LivePortrait项目结构清晰,主要包含以下核心模块:
- 推理脚本:
inference.py(人类模式)和inference_animals.py(动物模式) - Gradio界面:
app.py和app_animals.py - 核心管道:
src/live_portrait_pipeline.py和src/live_portrait_pipeline_animal.py - 模型配置:
src/config/models.yaml - 工具函数:
src/utils/目录下的各种工具模块
💡 应用案例与创意灵感
LivePortrait可应用于多种场景:
- 社交媒体内容创作:制作生动的个人肖像动画,增加社交媒体互动
- 虚拟教学助手:创建动态虚拟教师形象,提升在线教学体验
- 游戏角色动画:快速生成游戏角色面部动画
- 宠物内容创作:让你的宠物照片"开口说话"
- 视频会议虚拟形象:创建个性化虚拟形象参与视频会议
📚 更多资源与社区支持
项目持续更新和改进,你可以通过以下资源获取更多信息和支持:
- 官方文档:项目根目录下的文档和
assets/docs/目录 - 更新日志:
assets/docs/changelog/目录包含详细的版本更新记录 - 问题反馈:通过项目的issue系统提交问题和建议
📝 结语
LivePortrait作为一款高效的肖像动画工具,为用户提供了将静态肖像转化为生动动画的强大能力。无论是普通用户还是开发者,都能通过简单的步骤快速上手,创造出专业级的动画效果。
随着项目的不断更新,我们期待看到更多创新的应用场景和社区贡献。现在就动手尝试,让你的静态肖像"活"起来吧!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00




