首页
/ LipGAN 使用与安装指南

LipGAN 使用与安装指南

2024-09-28 03:13:28作者:盛欣凯Ernestine

项目概述

LipGAN 是一个用于同步嘴唇动作与任意音频的人工智能模型,由 Rudrabha 等人在论文《Towards Automatic Face-to-Face Translation》中提出。该模型能够在给定音频和人脸视频或图像时,生成逼真的说话画面,支持多语言处理及野生环境下的面部姿态和表情。

项目目录结构及介绍

LipGAN/
├── code                 # 主代码目录
│   ├── batch_inference.py  # 推理脚本,用于生成结果视频
│   ├── discriminator.py    # 判别器模型代码
│   ├── generator.py        # 生成器模型代码
│   ├── preprocess.py       # 预处理数据脚本
│   ├── requirements.txt    # 依赖包列表
│   ├── train.py            # 训练主程序
│   └── ...                 # 其他相关代码文件
├── matlab               # MATLAB相关脚本,用于音频预处理等
│   ├── create_mat.m       # 将音频转换成MFCC特征的MATLAB脚本
│   └── preprocess_mat.m   # 数据预处理的MATLAB脚本
├── logs                  # 存放训练日志和模型权重的目录
├── results               # 推理结果存放目录
├── .gitignore            # Git忽略文件
├── LICENSE               # 开源许可证文件
├── README.md             # 项目说明文档
└── fully_pythonic        # 可选分支,移除了对MATLAB的依赖

启动文件介绍

batch_inference.py

主要的推理脚本,用于将音频和人脸视频(或单一人脸图片)结合,生成嘴唇同步的新视频。你需要指定预训练模型路径、输入的视频/图片路径、音频文件路径、输出目录以及可选参数如FPS(帧率)、MAT文件路径等。

train.py

训练脚本,用于从头开始训练LipGAN模型。需要提供预处理后的数据集路径,并可以自定义多种训练选项。

preprocess.py

数据预处理脚本,用于从原始视频中提取脸部分割并保存为图像序列,同时将音频转化为MFCC特征文件。

项目的配置文件介绍

LipGAN没有一个独立的配置文件,而是通过命令行参数来控制其运行设置。在运行train.pybatch_inference.py时,用户需通过命令行指定各项参数,例如模型路径、数据根目录、输出目录等。对于特定的环境配置,比如Python依赖包版本和额外的软件(如ffmpeg和可能的MATLAB),这些信息通常在README.md中列出,并且需要用户手动根据需求进行设置。

依赖安装:

可以通过运行pip install -r requirements.txt来安装Python依赖。对于需要MATLAB的情况,确保安装有R2016a或更高版本,并且执行相应的预处理脚本。

在使用前,请确保已经下载了必要的预训练模型并放置于logs/目录下。

为了简化和自动化流程,开发者可以根据实际需求创建一个自定义的配置脚本或利用命令行参数管理工具,以提高工作流的效率。

登录后查看全文
热门项目推荐