YOLOv8-TensorRT 项目下载及安装教程
2024-12-09 19:26:54作者:瞿蔚英Wynne
1. 项目介绍
YOLOv8-TensorRT 是一个基于 TensorRT 加速的 YOLOv8 目标检测项目。该项目通过 TensorRT 优化 YOLOv8 模型的推理速度,使其在 NVIDIA GPU 上运行更加高效。YOLOv8 是 YOLO 系列模型的最新版本,具有更高的检测精度和更快的推理速度。
2. 项目下载位置
要下载 YOLOv8-TensorRT 项目,请使用以下命令:
git clone https://github.com/triple-Mu/YOLOv8-TensorRT.git
3. 项目安装环境配置
3.1 安装 CUDA
首先,确保你的系统已经安装了 CUDA。推荐使用 CUDA 11.4 或更高版本。你可以从 NVIDIA 官方网站下载并安装适合你系统的 CUDA 版本。

3.2 安装 TensorRT
接下来,安装 TensorRT。推荐使用 TensorRT 8.4 或更高版本。你可以从 NVIDIA 官方网站下载并安装适合你系统的 TensorRT 版本。

3.3 安装 Python 依赖
进入项目目录并安装所需的 Python 依赖:
cd YOLOv8-TensorRT
pip install -r requirements.txt
3.4 安装 ultralytics 包
为了支持 ONNX 导出或 TensorRT API 构建,需要安装 ultralytics 包:
pip install ultralytics
4. 项目安装方式
4.1 准备 PyTorch 权重
下载或准备你自己的 PyTorch 权重文件,例如 yolov8s.pt 或 yolov8s-seg.pt。
4.2 导出 ONNX 模型
使用 ultralytics API 导出 ONNX 模型:
python3 export-det.py \
--weights yolov8s.pt \
--iou-thres 0.65 \
--conf-thres 0.25 \
--topk 100 \
--opset 11 \
--sim \
--input-shape 1 3 640 640 \
--device cuda:0
4.3 构建 TensorRT 引擎
使用 TensorRT 的 ONNX Python API 构建引擎:
python3 build.py \
--weights yolov8s.onnx \
--iou-thres 0.65 \
--conf-thres 0.25 \
--topk 100 \
--fp16 \
--device cuda:0
5. 项目处理脚本
5.1 使用 Python 脚本进行推理
使用导出的 TensorRT 引擎进行图像推理:
python3 infer-det.py \
--engine yolov8s.engine \
--imgs data \
--show \
--out-dir outputs \
--device cuda:0
5.2 使用 C++ 进行推理
你也可以使用 C++ 进行推理。首先,进入 csrc/detect/end2end 目录并构建项目:
cd csrc/detect/end2end
mkdir -p build && cd build
cmake ..
make
mv yolov8 ../../..
cd ../../..
然后,使用以下命令进行推理:
./yolov8 yolov8s.engine data/bus.jpg
通过以上步骤,你已经成功下载并安装了 YOLOv8-TensorRT 项目,并可以使用 TensorRT 加速 YOLOv8 模型的推理。
登录后查看全文
热门项目推荐
相关项目推荐
ERNIE-4.5-VL-28B-A3B-ThinkingERNIE-4.5-VL-28B-A3B-Thinking 是 ERNIE-4.5-VL-28B-A3B 架构的重大升级,通过中期大规模视觉-语言推理数据训练,显著提升了模型的表征能力和模态对齐,实现了多模态推理能力的突破性飞跃Python00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
MiniMax-M2MiniMax-M2是MiniMaxAI开源的高效MoE模型,2300亿总参数中仅激活100亿,却在编码和智能体任务上表现卓越。它支持多文件编辑、终端操作和复杂工具链调用Python00
HunyuanVideo-1.5暂无简介00
MiniCPM-V-4_5MiniCPM-V 4.5 是 MiniCPM-V 系列中最新且功能最强的模型。该模型基于 Qwen3-8B 和 SigLIP2-400M 构建,总参数量为 80 亿。与之前的 MiniCPM-V 和 MiniCPM-o 模型相比,它在性能上有显著提升,并引入了新的实用功能Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
GOT-OCR-2.0-hf阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00
项目优选
收起
deepin linux kernel
C
24
7
Ascend Extension for PyTorch
Python
185
196
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!
C
1.03 K
480
TorchAir 支持用户基于PyTorch框架和torch_npu插件在昇腾NPU上使用图模式进行推理。
Python
276
97
本仓将收集和展示高质量的仓颉示例代码,欢迎大家投稿,让全世界看到您的妙趣设计,也让更多人通过您的编码理解和喜爱仓颉语言。
Cangjie
380
3.44 K
暂无简介
Dart
623
140
React Native鸿蒙化仓库
JavaScript
242
315
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
9
1
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
648
265
openGauss kernel ~ openGauss is an open source relational database management system
C++
157
210