YOLOv8-TensorRT 项目下载及安装教程
2024-12-09 14:04:53作者:瞿蔚英Wynne
1. 项目介绍
YOLOv8-TensorRT 是一个基于 TensorRT 加速的 YOLOv8 目标检测项目。该项目通过 TensorRT 优化 YOLOv8 模型的推理速度,使其在 NVIDIA GPU 上运行更加高效。YOLOv8 是 YOLO 系列模型的最新版本,具有更高的检测精度和更快的推理速度。
2. 项目下载位置
要下载 YOLOv8-TensorRT 项目,请使用以下命令:
git clone https://github.com/triple-Mu/YOLOv8-TensorRT.git
3. 项目安装环境配置
3.1 安装 CUDA
首先,确保你的系统已经安装了 CUDA。推荐使用 CUDA 11.4 或更高版本。你可以从 NVIDIA 官方网站下载并安装适合你系统的 CUDA 版本。

3.2 安装 TensorRT
接下来,安装 TensorRT。推荐使用 TensorRT 8.4 或更高版本。你可以从 NVIDIA 官方网站下载并安装适合你系统的 TensorRT 版本。

3.3 安装 Python 依赖
进入项目目录并安装所需的 Python 依赖:
cd YOLOv8-TensorRT
pip install -r requirements.txt
3.4 安装 ultralytics 包
为了支持 ONNX 导出或 TensorRT API 构建,需要安装 ultralytics 包:
pip install ultralytics
4. 项目安装方式
4.1 准备 PyTorch 权重
下载或准备你自己的 PyTorch 权重文件,例如 yolov8s.pt 或 yolov8s-seg.pt。
4.2 导出 ONNX 模型
使用 ultralytics API 导出 ONNX 模型:
python3 export-det.py \
--weights yolov8s.pt \
--iou-thres 0.65 \
--conf-thres 0.25 \
--topk 100 \
--opset 11 \
--sim \
--input-shape 1 3 640 640 \
--device cuda:0
4.3 构建 TensorRT 引擎
使用 TensorRT 的 ONNX Python API 构建引擎:
python3 build.py \
--weights yolov8s.onnx \
--iou-thres 0.65 \
--conf-thres 0.25 \
--topk 100 \
--fp16 \
--device cuda:0
5. 项目处理脚本
5.1 使用 Python 脚本进行推理
使用导出的 TensorRT 引擎进行图像推理:
python3 infer-det.py \
--engine yolov8s.engine \
--imgs data \
--show \
--out-dir outputs \
--device cuda:0
5.2 使用 C++ 进行推理
你也可以使用 C++ 进行推理。首先,进入 csrc/detect/end2end 目录并构建项目:
cd csrc/detect/end2end
mkdir -p build && cd build
cmake ..
make
mv yolov8 ../../..
cd ../../..
然后,使用以下命令进行推理:
./yolov8 yolov8s.engine data/bus.jpg
通过以上步骤,你已经成功下载并安装了 YOLOv8-TensorRT 项目,并可以使用 TensorRT 加速 YOLOv8 模型的推理。
登录后查看全文
热门项目推荐
相关项目推荐
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C079
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python056
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
agent-studioopenJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力TSX0131
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
最新内容推荐
Python Django图书借阅管理系统:高效智能的图书馆管理解决方案 Adobe Acrobat XI Pro PDF拼版插件:提升排版效率的专业利器 深入解析Windows内核模式驱动管理器:系统驱动管理的终极利器 SteamVR 1.2.3 Unity插件:兼容Unity 2019及更低版本的VR开发终极解决方案 OMNeT++中文使用手册:网络仿真的终极指南与实用教程 RadiAnt DICOM Viewer 2021.2:专业医学影像阅片软件的全面指南 中兴e读zedx.zed文档阅读器V4.11轻量版:专业通信设备文档阅读解决方案 PADS元器件位号居中脚本:提升PCB设计效率的自动化利器 谷歌浏览器跨域插件Allow-Control-Allow-Origin:前端开发调试必备神器 IEC61850建模工具及示例资源:智能电网自动化配置的完整指南
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
464
3.45 K
Ascend Extension for PyTorch
Python
272
310
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
192
79
暂无简介
Dart
714
171
React Native鸿蒙化仓库
JavaScript
284
331
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
844
424
华为昇腾面向大规模分布式训练的多模态大模型套件,支撑多模态生成、多模态理解。
Python
105
120
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
10
1
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.26 K
692