3分钟上手!Deep-Live-Cam实时换脸神器安装配置指南
你还在为复杂的AI换脸软件头疼?本文将带你3步完成Deep-Live-Cam(实时面部交换和一键视频深度伪造工具)的安装配置,无需专业技术背景,小白也能轻松上手。读完本文你将获得:
- 快速掌握两种安装方式(预构建版/手动版)
- 针对不同硬件的优化配置方案
- 3分钟启动实时换脸的实操技巧
- 常见问题的解决方案
关于Deep-Live-Cam
Deep-Live-Cam是一款开源的实时面部交换工具,仅需一张图片即可实现摄像头实时换脸或视频深度伪造。项目核心特点包括:
- 实时处理:所有效果均为实时生成
- 操作简单:三步即可完成设置
- 功能强大:支持多面部映射、嘴部遮罩等高级特性
项目主文件:README.md
安装前准备
系统要求
Deep-Live-Cam支持多种操作系统,但推荐配置如下:
- Windows:Windows 10/11,64位系统
- macOS:Apple Silicon (M1/M2/M3)芯片
- Linux:Ubuntu 20.04+
硬件要求
- 最低配置:CPU支持AVX指令集,8GB内存
- 推荐配置:NVIDIA/AMD独立显卡,16GB内存
核心处理模块:modules/core.py
快速安装指南(推荐新手)
预构建版安装(Windows/Mac Silicon)
预构建版是最简单的安装方式,特别适合非技术用户或没有时间手动安装所有依赖的用户。
- 访问官方快速启动页面下载预构建版本
- 解压下载的文件到任意目录
- 双击运行可执行文件即可启动
预构建版包含了所有必要的依赖和模型,支持NVIDIA、AMD GPU或Mac Silicon,并提供优先技术支持。
手动安装步骤
1. 环境准备
首先需要安装以下基础软件:
- Python 3.11(推荐版本)
- pip(Python包管理器)
- git(版本控制工具)
- ffmpeg(视频处理工具)
Windows用户还需要安装Visual Studio 2022运行时环境。
2. 克隆仓库
打开终端,执行以下命令克隆项目:
git clone https://gitcode.com/GitHub_Trending/de/Deep-Live-Cam
cd Deep-Live-Cam
3. 下载模型文件
需要下载以下两个模型文件,并将它们放在"models"文件夹中:
- GFPGANv1.4.pth
- inswapper_128_fp16.onnx
模型存放目录:models/
4. 安装依赖
Windows系统
python -m venv venv
venv\Scripts\activate
pip install -r requirements.txt
Linux系统
python3 -m venv venv
source venv/bin/activate
pip install -r requirements.txt
依赖配置文件:requirements.txt
macOS系统(Apple Silicon)
Apple Silicon用户需要特定设置:
brew install python@3.11
brew install python-tk@3.10
python3.11 -m venv venv
source venv/bin/activate
pip install -r requirements.txt
GPU加速配置
NVIDIA GPU (CUDA)
- 安装CUDA Toolkit 12.8.0
- 安装cuDNN v8.9.7
- 执行以下命令:
pip install -U torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128
pip uninstall onnxruntime onnxruntime-gpu
pip install onnxruntime-gpu==1.21.0
启动命令:
python run.py --execution-provider cuda
AMD GPU (DirectML)
pip uninstall onnxruntime onnxruntime-directml
pip install onnxruntime-directml==1.21.0
启动命令:
python run.py --execution-provider directml
GPU支持模块:modules/processors/frame/core.py
Mac Silicon (CoreML)
pip uninstall onnxruntime onnxruntime-silicon
pip install onnxruntime-silicon==1.13.1
启动命令:
python3.10 run.py --execution-provider coreml
快速上手:三步实现实时换脸
Deep-Live-Cam的使用非常简单,只需三个步骤即可实现实时换脸:
- 选择一张人脸图片作为源
- 选择要使用的摄像头
- 点击"Live"按钮开始实时换脸
基本操作界面
程序主界面包含以下关键组件:
- 源人脸选择区
- 摄像头选择器
- 实时预览窗口
- 控制按钮区
- 设置选项面板
UI模块代码:modules/ui.py
高级功能介绍
多面部映射
Deep-Live-Cam支持同时对多个对象应用不同的人脸,这一功能在多人视频场景中非常实用。
实现代码:modules/processors/frame/face_swapper.py
嘴部遮罩
嘴部遮罩功能可以保留原始嘴部动作,使面部表情更加自然准确。
电影模式
在观看电影时实时替换演员面孔,创造个性化观影体验。
命令行参数说明
除了图形界面,Deep-Live-Cam还支持命令行模式,常用参数包括:
-s, --source: 选择源图像
-t, --target: 选择目标图像或视频
-o, --output: 指定输出文件或目录
--frame-processor: 选择帧处理器
--execution-provider: 选择执行提供器(CPU/GPU等)
--many-faces: 处理所有面孔
--mouth-mask: 使用嘴部遮罩
例如,使用命令行模式处理视频:
python run.py -s source.jpg -t target.mp4 -o output
完整参数说明:run.py
常见问题解决
模型文件缺失
如果启动时报错"模型文件缺失",请检查models/目录下是否存在所需的两个模型文件。
性能问题
如果运行卡顿,可以尝试以下优化:
- 降低视频分辨率
- 减少同时处理的人脸数量
- 切换到GPU加速模式
- 关闭其他占用资源的程序
性能优化代码:modules/utilities.py
界面显示异常
Windows用户如果遇到界面显示异常,可能需要安装Visual Studio 2022运行时环境。
总结与展望
Deep-Live-Cam作为一款开源的实时换脸工具,为用户提供了简单易用但功能强大的面部交换解决方案。通过本文的指南,你已经掌握了从安装配置到高级使用的全部知识。
项目持续更新中,未来版本将带来更多高级功能和性能优化。建议定期查看项目更新:CONTRIBUTING.md
学习资源推荐
如果你觉得本指南有帮助,请点赞收藏,关注获取更多AI工具使用技巧!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00




