【免费下载】 将LLaMA模型导出为ONNX格式的教程
项目介绍
export_llama_to_onnx 是一个开源项目,旨在将类似于LLaMA的大型语言模型(LLM)导出为ONNX格式,而无需修改 transformers 库中的 modeling_xx_model.py 文件。该项目支持多种模型,包括LLaMA、Alpaca等,并且还支持Baichuan、Alibaba Qwen、ChatGlm2/ChatGlm3、Gemma和Bloom等模型。
项目快速启动
安装依赖
首先,确保你已经安装了必要的依赖包:
pip install -r requirements.txt
导出LLaMA模型为ONNX格式
以下是一个简单的示例,展示如何将LLaMA模型导出为ONNX格式:
python export_llama.py -m model_dir -o out_dir --dtype fp16
导出Qwen模型为ONNX格式
如果你需要导出Qwen模型,可以使用以下命令:
python export_qwen_naive.py -m model_dir -o out_dir --dtype fp16
在导出Qwen模型之前,建议替换 modeling_qwen.py 中的 rearrange 操作,以简化导出的ONNX模型。
导出ChatGlm2模型为ONNX格式
导出ChatGlm2模型的命令如下:
python export_chatglm2.py -m model_dir --dtype fp16
请确保使用PyTorch 2.1或更高版本(如果尚未发布,请使用最新的nightly版本)。
应用案例和最佳实践
案例1:LLaMA模型的ONNX导出
假设你有一个LLaMA模型的目录 model_dir,你可以使用以下命令将其导出为ONNX格式:
python export_llama.py -m model_dir -o out_dir --dtype fp16
案例2:Qwen模型的ONNX导出
对于Qwen模型,你可以使用以下命令进行导出:
python export_qwen_naive.py -m model_dir -o out_dir --dtype fp16
最佳实践
- 使用合适的ONNX opset版本:在导出模型时,可以通过
--opset参数设置ONNX opset版本。 - 添加topk warper:使用
--add_topk_warper参数可以为ONNX模型添加topk warper。 - 卸载FlashAttention:在模型转换之前,请卸载或禁用FlashAttention(和可能的xformers)。
典型生态项目
1. ONNX Runtime
ONNX Runtime 是一个高性能的推理引擎,支持多种硬件加速,包括CPU、GPU和FPGA。通过将模型导出为ONNX格式,可以利用ONNX Runtime进行高效的推理。
2. Hugging Face Transformers
Hugging Face 的 transformers 库提供了丰富的预训练模型,支持多种模型架构。通过 export_llama_to_onnx 项目,可以将这些模型导出为ONNX格式,以便在不同的推理环境中使用。
3. PyTorch
PyTorch 是一个广泛使用的深度学习框架,支持动态计算图和高效的GPU加速。通过 export_llama_to_onnx 项目,可以将PyTorch模型导出为ONNX格式,以便在其他推理引擎中使用。
4. ONNX Simplifier
onnxsim_large_model 是一个用于简化大型ONNX模型的工具。通过使用该工具,可以进一步优化导出的ONNX模型,提高推理性能。
通过以上步骤和工具,你可以轻松地将LLaMA等大型语言模型导出为ONNX格式,并在不同的推理环境中进行高效部署。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00