首页
/ YOLOv8-TensorRT-CPP 项目下载及安装教程

YOLOv8-TensorRT-CPP 项目下载及安装教程

2024-12-09 11:55:30作者:管翌锬

1. 项目介绍

YOLOv8-TensorRT-CPP 是一个使用 TensorRT C++ API 实现的 YOLOv8 项目。它支持目标检测、语义分割和人体姿态估计。该项目旨在展示如何使用 TensorRT C++ API 在 GPU 上运行 YOLOv8 的推理。

2. 项目下载位置

要下载 YOLOv8-TensorRT-CPP 项目,请使用以下命令:

git clone https://github.com/cyrusbehr/YOLOv8-TensorRT-CPP.git --recursive

注意:请确保使用 --recursive 标志,因为该项目使用了 git submodules。

3. 项目安装环境配置

3.1 系统要求

该项目已在 Ubuntu 20.04 和 22.04 上测试并正常工作。Windows 目前不支持。

3.2 安装依赖

3.2.1 CUDA

推荐安装 CUDA 12.0 或更高版本。安装步骤如下:

sudo apt update
sudo apt install nvidia-cuda-toolkit

3.2.2 cuDNN

推荐安装 cuDNN 8 或更高版本。安装步骤如下:

sudo apt install libcudnn8

3.2.3 OpenCV

推荐安装带有 CUDA 支持的 OpenCV 4.8 或更高版本。可以通过以下脚本编译 OpenCV:

./build_opencv.sh

3.2.4 TensorRT

从 NVIDIA 官网下载 TensorRT 10 或更高版本,并按照官方文档进行安装。

3.3 环境配置示例

环境配置示例

4. 项目安装方式

4.1 克隆项目

git clone https://github.com/cyrusbehr/YOLOv8-TensorRT-CPP.git --recursive

4.2 构建项目

进入项目目录并创建构建目录:

cd YOLOv8-TensorRT-CPP
mkdir build
cd build

运行 CMake 配置并构建项目:

cmake ..
make -j

5. 项目处理脚本

5.1 模型转换

将 PyTorch 模型转换为 ONNX 格式:

pip3 install ultralytics
cd scripts
python3 pytorch2onnx.py --pt_path <path_to_your_pt_file>

5.2 运行推理

运行目标检测推理:

./detect_object_image --model <path_to_your_onnx_model> --input <path_to_your_image>

运行实时视频推理:

./detect_object_video --model <path_to_your_onnx_model> --input 0

5.3 性能基准测试

运行基准测试脚本:

./benchmark --model <path_to_your_onnx_model> --input <path_to_your_benchmark_image>

通过以上步骤,您可以成功下载、安装并运行 YOLOv8-TensorRT-CPP 项目。

登录后查看全文
热门项目推荐