首页
/ Online-Realtime-Action-Recognition-based-on-OpenPose 项目教程

Online-Realtime-Action-Recognition-based-on-OpenPose 项目教程

2024-09-14 18:49:52作者:邵娇湘

1. 项目目录结构及介绍

Online-Realtime-Action-Recognition-based-on-OpenPose/
├── Action/
│   └── training/
│       ├── train.py
│       └── ...
├── Pose/
│   └── graph_models/
│       └── VGG_origin/
│           └── graph_opt.pb
├── test_out/
├── utils/
│   └── ...
├── .gitignore
├── LICENSE
├── README.md
├── main.py
└── utils.py

目录结构介绍

  • Action/: 包含训练相关的文件,如训练脚本 train.py
  • Pose/: 包含预训练模型文件,如 graph_opt.pb
  • test_out/: 用于存放测试输出的文件。
  • utils/: 包含项目中使用的各种工具函数。
  • .gitignore: Git 忽略文件配置。
  • LICENSE: 项目许可证文件。
  • README.md: 项目说明文档。
  • main.py: 项目的启动文件。
  • utils.py: 项目中使用的工具函数。

2. 项目的启动文件介绍

main.py

main.py 是项目的启动文件,负责实时姿态估计、多人跟踪和动作识别。以下是该文件的主要功能:

  • 实时姿态估计: 使用 OpenPose 进行实时姿态估计。
  • 多人跟踪: 使用 DeepSort 算法进行多人跟踪。
  • 动作识别: 基于每一帧的关节点数据进行动作识别。

使用方法

  1. 下载 OpenPose 的预训练模型并放置在 Pose/graph_models/VGG_origin/ 目录下。

  2. 运行以下命令启动项目:

    python main.py
    

    该命令将启动摄像头进行实时动作识别。

  3. 如果需要测试视频文件,可以使用以下命令:

    python main.py --video=test.mp4
    

3. 项目的配置文件介绍

train.py

train.py 位于 Action/training/ 目录下,用于训练动作识别模型。以下是该文件的主要功能:

  • 数据准备: 从收集的数据中准备训练数据。
  • 模型训练: 使用准备好的数据训练动作识别模型。

使用方法

  1. 收集数据:运行 main.py 并取消数据收集部分的注释,收集数据并保存为 .txt 文件。
  2. .txt 文件转换为 .csv 格式,并放置在 Action/training/ 目录下。
  3. 修改 train.py 中的 action_enum 和输出层配置。
  4. 运行以下命令开始训练:
    python train.py
    

通过以上步骤,您可以成功启动并配置 Online-Realtime-Action-Recognition-based-on-OpenPose 项目。

登录后查看全文
热门项目推荐
相关项目推荐