首页
/ YOLOv8-TensorRT 项目下载及安装教程

YOLOv8-TensorRT 项目下载及安装教程

2024-12-09 07:55:33作者:瞿蔚英Wynne

1. 项目介绍

YOLOv8-TensorRT 是一个基于 TensorRT 加速的 YOLOv8 目标检测项目。该项目通过 TensorRT 优化 YOLOv8 模型的推理速度,使其在 NVIDIA GPU 上运行更加高效。YOLOv8 是 YOLO 系列模型的最新版本,具有更高的检测精度和更快的推理速度。

2. 项目下载位置

要下载 YOLOv8-TensorRT 项目,请使用以下命令:

git clone https://github.com/triple-Mu/YOLOv8-TensorRT.git

3. 项目安装环境配置

3.1 安装 CUDA

首先,确保你的系统已经安装了 CUDA。推荐使用 CUDA 11.4 或更高版本。你可以从 NVIDIA 官方网站下载并安装适合你系统的 CUDA 版本。

CUDA 安装示例

3.2 安装 TensorRT

接下来,安装 TensorRT。推荐使用 TensorRT 8.4 或更高版本。你可以从 NVIDIA 官方网站下载并安装适合你系统的 TensorRT 版本。

TensorRT 安装示例

3.3 安装 Python 依赖

进入项目目录并安装所需的 Python 依赖:

cd YOLOv8-TensorRT
pip install -r requirements.txt

3.4 安装 ultralytics 包

为了支持 ONNX 导出或 TensorRT API 构建,需要安装 ultralytics 包:

pip install ultralytics

4. 项目安装方式

4.1 准备 PyTorch 权重

下载或准备你自己的 PyTorch 权重文件,例如 yolov8s.ptyolov8s-seg.pt

4.2 导出 ONNX 模型

使用 ultralytics API 导出 ONNX 模型:

python3 export-det.py \
  --weights yolov8s.pt \
  --iou-thres 0.65 \
  --conf-thres 0.25 \
  --topk 100 \
  --opset 11 \
  --sim \
  --input-shape 1 3 640 640 \
  --device cuda:0

4.3 构建 TensorRT 引擎

使用 TensorRT 的 ONNX Python API 构建引擎:

python3 build.py \
  --weights yolov8s.onnx \
  --iou-thres 0.65 \
  --conf-thres 0.25 \
  --topk 100 \
  --fp16 \
  --device cuda:0

5. 项目处理脚本

5.1 使用 Python 脚本进行推理

使用导出的 TensorRT 引擎进行图像推理:

python3 infer-det.py \
  --engine yolov8s.engine \
  --imgs data \
  --show \
  --out-dir outputs \
  --device cuda:0

5.2 使用 C++ 进行推理

你也可以使用 C++ 进行推理。首先,进入 csrc/detect/end2end 目录并构建项目:

cd csrc/detect/end2end
mkdir -p build && cd build
cmake ..
make
mv yolov8 ../../..
cd ../../..

然后,使用以下命令进行推理:

./yolov8 yolov8s.engine data/bus.jpg

通过以上步骤,你已经成功下载并安装了 YOLOv8-TensorRT 项目,并可以使用 TensorRT 加速 YOLOv8 模型的推理。

登录后查看全文
热门项目推荐