首页
/ ComfyUI_EchoMimic 使用教程

ComfyUI_EchoMimic 使用教程

2026-01-30 05:20:37作者:胡唯隽

1. 项目介绍

ComfyUI_EchoMimic 是一个开源项目,基于 ComfyUI 和 EchoMimic 实现了音频驱动的肖像动画。它允许用户通过音频输入来驱动人物的口型和表情,生成逼真的动画效果。该项目支持多种模型和算法,包括 EchoMimic V1 和 V2 版本,以及姿态驱动等高级功能。

2. 项目快速启动

安装

首先,在 ComfyUI 的 custom_node 目录下运行以下命令来克隆项目:

git clone https://github.com/smthemex/ComfyUI_EchoMimic.git

然后,安装所需的依赖项:

pip install -r requirements.txt

注意:如果使用 V1 版本,需要安装 facenet-pytorch

配置

ComfyUI/models/ 目录下,根据需要下载对应的模型文件。

运行

在 ComfyUI 界面中,根据项目需求配置相关参数,然后启动动画生成流程。

3. 应用案例和最佳实践

自动对齐输入图片

使用 ComfyUI 的自动对齐功能,可以确保输入图片与模型的要求匹配,从而获得更好的动画效果。

使用自定义视频驱动

在 V2 版本中,用户可以加载自定义视频来驱动动画,实现更加个性化的效果。

选择自定义姿态驱动视频

用户可以选择自定义的 pose 驱动视频,以生成特定的动画效果。

使用默认 pose 文件

在 V2 版本中,用户可以直接使用官方提供的默认 pose 文件,简化动画生成流程。

4. 典型生态项目

ComfyUI_EchoMimic 可以与其他开源项目结合,如使用 YOLO 和 RealESRGAN 等技术来提高动画质量和精确度。开发者可以基于该项目进一步开发出更多具有创新性的应用。

登录后查看全文
热门项目推荐
相关项目推荐