YOLOv8-TensorRT 项目下载及安装教程
2024-12-09 14:04:53作者:瞿蔚英Wynne
1. 项目介绍
YOLOv8-TensorRT 是一个基于 TensorRT 加速的 YOLOv8 目标检测项目。该项目通过 TensorRT 优化 YOLOv8 模型的推理速度,使其在 NVIDIA GPU 上运行更加高效。YOLOv8 是 YOLO 系列模型的最新版本,具有更高的检测精度和更快的推理速度。
2. 项目下载位置
要下载 YOLOv8-TensorRT 项目,请使用以下命令:
git clone https://github.com/triple-Mu/YOLOv8-TensorRT.git
3. 项目安装环境配置
3.1 安装 CUDA
首先,确保你的系统已经安装了 CUDA。推荐使用 CUDA 11.4 或更高版本。你可以从 NVIDIA 官方网站下载并安装适合你系统的 CUDA 版本。

3.2 安装 TensorRT
接下来,安装 TensorRT。推荐使用 TensorRT 8.4 或更高版本。你可以从 NVIDIA 官方网站下载并安装适合你系统的 TensorRT 版本。

3.3 安装 Python 依赖
进入项目目录并安装所需的 Python 依赖:
cd YOLOv8-TensorRT
pip install -r requirements.txt
3.4 安装 ultralytics 包
为了支持 ONNX 导出或 TensorRT API 构建,需要安装 ultralytics 包:
pip install ultralytics
4. 项目安装方式
4.1 准备 PyTorch 权重
下载或准备你自己的 PyTorch 权重文件,例如 yolov8s.pt 或 yolov8s-seg.pt。
4.2 导出 ONNX 模型
使用 ultralytics API 导出 ONNX 模型:
python3 export-det.py \
--weights yolov8s.pt \
--iou-thres 0.65 \
--conf-thres 0.25 \
--topk 100 \
--opset 11 \
--sim \
--input-shape 1 3 640 640 \
--device cuda:0
4.3 构建 TensorRT 引擎
使用 TensorRT 的 ONNX Python API 构建引擎:
python3 build.py \
--weights yolov8s.onnx \
--iou-thres 0.65 \
--conf-thres 0.25 \
--topk 100 \
--fp16 \
--device cuda:0
5. 项目处理脚本
5.1 使用 Python 脚本进行推理
使用导出的 TensorRT 引擎进行图像推理:
python3 infer-det.py \
--engine yolov8s.engine \
--imgs data \
--show \
--out-dir outputs \
--device cuda:0
5.2 使用 C++ 进行推理
你也可以使用 C++ 进行推理。首先,进入 csrc/detect/end2end 目录并构建项目:
cd csrc/detect/end2end
mkdir -p build && cd build
cmake ..
make
mv yolov8 ../../..
cd ../../..
然后,使用以下命令进行推理:
./yolov8 yolov8s.engine data/bus.jpg
通过以上步骤,你已经成功下载并安装了 YOLOv8-TensorRT 项目,并可以使用 TensorRT 加速 YOLOv8 模型的推理。
登录后查看全文
热门项目推荐
相关项目推荐
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C094
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00
最新内容推荐
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
475
3.54 K
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
225
94
暂无简介
Dart
725
175
React Native鸿蒙化仓库
JavaScript
287
339
Ascend Extension for PyTorch
Python
284
316
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.27 K
701
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
10
1
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
849
441
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
65
19