【免费下载】 将LLaMA模型导出为ONNX格式的教程
项目介绍
export_llama_to_onnx 是一个开源项目,旨在将类似于LLaMA的大型语言模型(LLM)导出为ONNX格式,而无需修改 transformers 库中的 modeling_xx_model.py 文件。该项目支持多种模型,包括LLaMA、Alpaca等,并且还支持Baichuan、Alibaba Qwen、ChatGlm2/ChatGlm3、Gemma和Bloom等模型。
项目快速启动
安装依赖
首先,确保你已经安装了必要的依赖包:
pip install -r requirements.txt
导出LLaMA模型为ONNX格式
以下是一个简单的示例,展示如何将LLaMA模型导出为ONNX格式:
python export_llama.py -m model_dir -o out_dir --dtype fp16
导出Qwen模型为ONNX格式
如果你需要导出Qwen模型,可以使用以下命令:
python export_qwen_naive.py -m model_dir -o out_dir --dtype fp16
在导出Qwen模型之前,建议替换 modeling_qwen.py 中的 rearrange 操作,以简化导出的ONNX模型。
导出ChatGlm2模型为ONNX格式
导出ChatGlm2模型的命令如下:
python export_chatglm2.py -m model_dir --dtype fp16
请确保使用PyTorch 2.1或更高版本(如果尚未发布,请使用最新的nightly版本)。
应用案例和最佳实践
案例1:LLaMA模型的ONNX导出
假设你有一个LLaMA模型的目录 model_dir,你可以使用以下命令将其导出为ONNX格式:
python export_llama.py -m model_dir -o out_dir --dtype fp16
案例2:Qwen模型的ONNX导出
对于Qwen模型,你可以使用以下命令进行导出:
python export_qwen_naive.py -m model_dir -o out_dir --dtype fp16
最佳实践
- 使用合适的ONNX opset版本:在导出模型时,可以通过
--opset参数设置ONNX opset版本。 - 添加topk warper:使用
--add_topk_warper参数可以为ONNX模型添加topk warper。 - 卸载FlashAttention:在模型转换之前,请卸载或禁用FlashAttention(和可能的xformers)。
典型生态项目
1. ONNX Runtime
ONNX Runtime 是一个高性能的推理引擎,支持多种硬件加速,包括CPU、GPU和FPGA。通过将模型导出为ONNX格式,可以利用ONNX Runtime进行高效的推理。
2. Hugging Face Transformers
Hugging Face 的 transformers 库提供了丰富的预训练模型,支持多种模型架构。通过 export_llama_to_onnx 项目,可以将这些模型导出为ONNX格式,以便在不同的推理环境中使用。
3. PyTorch
PyTorch 是一个广泛使用的深度学习框架,支持动态计算图和高效的GPU加速。通过 export_llama_to_onnx 项目,可以将PyTorch模型导出为ONNX格式,以便在其他推理引擎中使用。
4. ONNX Simplifier
onnxsim_large_model 是一个用于简化大型ONNX模型的工具。通过使用该工具,可以进一步优化导出的ONNX模型,提高推理性能。
通过以上步骤和工具,你可以轻松地将LLaMA等大型语言模型导出为ONNX格式,并在不同的推理环境中进行高效部署。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00