TensorRT-LLM 安装与使用指南
2024-08-07 05:03:03作者:咎竹峻Karen
目录结构与介绍
打开你的终端或命令行界面,执行以下命令以克隆 TensorRT-LLM 的仓库:
git clone https://github.com/NVIDIA/TensorRT-LLM.git
cd TensorRT-LLM
完成克隆后,你会看到如下的主要目录结构:
- examples/: 包含了各种模型的例子,例如GPT系列。
- include/: 包含了TensorRT-LLM的核心C++头文件。
- src/: 包括了源代码文件,这些用于构建TensorRT-LLM的各个组件。
- scripts/: 提供了自动化脚本,如编译和测试脚本等。
- doc/: 文档目录,包含API参考、快速入门指南等。
启动文件介绍
TensorRT-LLM 没有一个单一的“主”运行文件,因为它的设计更倾向于一个库或者框架,其核心在于编译定义好的语言模型到TensorRT引擎并进行推理。然而,在 examples/ 目录下你可以找到多个示例脚本,比如 build_gpt2.py, 这些脚本就是用来演示如何定义模型以及编译和运行模型的。
构建流程概述
- 在
examples/gpt文件夹中,查找build_gpt2.py脚本来了解模型构建的细节。 - 使用
python build_gpt2.py --help来查看可用参数。 - 根据需求编辑并运行相应的脚本。
配置文件介绍
TensorRT-LLM 并没有传统的配置文件,大多数设置都是通过构建模型时提供的命令行参数或者在脚本中的变量定义来实现的。例如,在 examples/gpt/build_gpt2.py 中,可以看到有许多可以调整的参数,包括但不限于:
model_config: 这个字典包含了模型架构的具体设置,如层的数量、嵌入维度大小等。profile: 这用于定义推理过程中不同的输入形状范围,这对于优化TensorRT引擎至关重要。builder_config: 控制TensorRT构建器的行为,如最大工作区大小、精度模式(FP32, FP16, INT8)等。
对于那些熟悉PyTorch的人们来说,TensorRT-LLM的Python API会非常直观且易于上手。你可以在doc/getting_started.rst这个文档中找到详细的步骤指导。
以上是基于该项目的初步介绍。具体使用前,请确保已经详细阅读了官方文档以获取最新和最全面的信息。如果你遇到任何技术上的问题,欢迎查阅项目内的Issue列表,也可能在那里找到解决之道。
登录后查看全文
热门项目推荐
相关项目推荐
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C089
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
473
3.51 K
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
223
89
暂无简介
Dart
721
174
Ascend Extension for PyTorch
Python
283
316
React Native鸿蒙化仓库
JavaScript
286
337
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
848
437
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.27 K
698
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
10
1
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
65
19