首页
/ Transformer-Deploy 项目教程

Transformer-Deploy 项目教程

2024-09-20 18:08:03作者:宣聪麟

1. 项目介绍

Transformer-Deploy 是一个用于优化和部署 Hugging Face Transformer 模型的开源工具。它能够在生产环境中通过单个命令行实现模型的优化和部署,提供高达 10 倍的推理加速。该项目支持 CPU 和 GPU 推理,适用于各种 Transformer 模型,包括文档分类、命名实体识别(NER)、特征提取和文本生成等任务。

2. 项目快速启动

2.1 安装

首先,克隆项目仓库并进入项目目录:

git clone https://github.com/ELS-RD/transformer-deploy.git
cd transformer-deploy

2.2 使用 Docker 快速启动

使用 Docker 可以快速启动并优化模型。以下是一个示例命令,用于优化一个分类模型:

docker run -it --rm --gpus all \
  -v $PWD:/project ghcr.io/els-rd/transformer-deploy:0.6.0 \
  bash -c "cd /project && \
  convert_model -m \"philschmid/MiniLM-L6-H384-uncased-sst2\" \
  --backend tensorrt onnx \
  --seq-len 16 128 128"

2.3 启动 Triton 推理服务器

优化完成后,可以启动 Nvidia Triton 推理服务器:

docker run -it --rm --gpus all -p8000:8000 -p8001:8001 -p8002:8002 --shm-size 256m \
  -v $PWD/triton_models:/models nvcr.io/nvidia/tritonserver:22.07-py3 \
  bash -c "pip install transformers && tritonserver --model-repository=/models"

3. 应用案例和最佳实践

3.1 文本分类

以下是一个文本分类的示例,使用 philschmid/MiniLM-L6-H384-uncased-sst2 模型:

docker run -it --rm --gpus all \
  -v $PWD:/project ghcr.io/els-rd/transformer-deploy:0.6.0 \
  bash -c "cd /project && \
  convert_model -m \"philschmid/MiniLM-L6-H384-uncased-sst2\" \
  --backend tensorrt onnx \
  --seq-len 16 128 128"

3.2 命名实体识别(NER)

以下是一个命名实体识别的示例,使用 kamalkraj/bert-base-cased-ner-conll2003 模型:

docker run -it --rm --gpus all \
  -v $PWD:/project ghcr.io/els-rd/transformer-deploy:0.6.0 \
  bash -c "cd /project && \
  convert_model -m \"kamalkraj/bert-base-cased-ner-conll2003\" \
  --backend tensorrt onnx \
  --seq-len 16 128 128 \
  --task token-classification"

3.3 文本生成

以下是一个文本生成的示例,使用 gpt2 模型:

docker run -it --rm --gpus all \
  -v $PWD:/project ghcr.io/els-rd/transformer-deploy:0.6.0 \
  bash -c "cd /project && \
  convert_model -m gpt2 \
  --backend tensorrt onnx \
  --seq-len 6 256 256 \
  --task text-generation"

4. 典型生态项目

4.1 Hugging Face Transformers

Hugging Face Transformers 是一个广泛使用的开源库,提供了大量的预训练 Transformer 模型。Transformer-Deploy 与 Hugging Face Transformers 无缝集成,支持从 Hugging Face 模型库中直接下载和优化模型。

4.2 Nvidia Triton 推理服务器

Nvidia Triton 推理服务器 是一个高性能的推理服务器,支持多种深度学习框架。Transformer-Deploy 通过优化模型并生成 Triton 配置文件,使得模型可以轻松部署到 Triton 推理服务器上,实现高效的推理服务。

4.3 ONNX Runtime

ONNX Runtime 是一个跨平台的推理引擎,支持多种硬件加速。Transformer-Deploy 支持将模型转换为 ONNX 格式,并使用 ONNX Runtime 进行推理,提供高性能的推理加速。

通过以上模块的介绍和示例,您可以快速上手并使用 Transformer-Deploy 进行模型的优化和部署。

热门项目推荐
相关项目推荐

项目优选

收起
Python-100-DaysPython-100-Days
Python - 100天从新手到大师
Python
609
115
HarmonyOS-ExamplesHarmonyOS-Examples
本仓将收集和展示仓颉鸿蒙应用示例代码,欢迎大家投稿,在仓颉鸿蒙社区展现你的妙趣设计!
Cangjie
286
79
mdmd
✍ WeChat Markdown Editor | 一款高度简洁的微信 Markdown 编辑器:支持 Markdown 语法、色盘取色、多图上传、一键下载文档、自定义 CSS 样式、一键重置等特性
Vue
111
25
openHiTLSopenHiTLS
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!
C
60
48
RuoYi-Cloud-Vue3RuoYi-Cloud-Vue3
🎉 基于Spring Boot、Spring Cloud & Alibaba、Vue3 & Vite、Element Plus的分布式前后端分离微服务架构权限管理系统
Vue
45
29
go-stockgo-stock
🦄🦄🦄AI赋能股票分析:自选股行情获取,成本盈亏展示,涨跌报警推送,市场整体/个股情绪分析,K线技术指标分析等。数据全部保留在本地。支持DeepSeek,OpenAI, Ollama,LMStudio,AnythingLLM,硅基流动,火山方舟,阿里云百炼等平台或模型。
Go
1
0
Cangjie-ExamplesCangjie-Examples
本仓将收集和展示高质量的仓颉示例代码,欢迎大家投稿,让全世界看到您的妙趣设计,也让更多人通过您的编码理解和喜爱仓颉语言。
Cangjie
205
57
MateChatMateChat
前端智能化场景解决方案UI库,轻松构建你的AI应用,我们将持续完善更新,欢迎你的使用与建议。 官网地址:https://matechat.gitcode.com
184
34
RuoYi-VueRuoYi-Vue
🎉 基于SpringBoot,Spring Security,JWT,Vue & Element 的前后端分离权限管理系统,同时提供了 Vue3 的版本
Java
182
44
frogfrog
这是一个人工生命试验项目,最终目标是创建“有自我意识表现”的模拟生命体。
Java
8
0