AMD MIGraphX 使用教程
项目介绍
AMD MIGraphX 是 AMD 的图形推理引擎,用于加速机器学习模型的推理。MIGraphX 支持从 ONNX 或 TensorFlow 导入模型,并提供了 C++ 和 Python 的 API 来编译、保存、加载和运行这些模型。MIGraphX 通过内部图表示将模型中的每个操作映射到 MIGraphX 中的操作,并进行一系列优化,如操作融合、算术简化、死代码消除、公共子表达式消除和常量传播。最终,MIGraphX 通过调用 MIOpen 或 rocBLAS 或创建 HIP 内核来为目标 AMD GPU 生成代码,也可以使用 DNNL 或 ZenDNN 库来支持 CPU。
项目快速启动
安装 MIGraphX
首先,确保已经安装了 ROCm。然后可以通过以下命令安装 MIGraphX:
sudo apt update && sudo apt install -y migraphx
编译和运行示例
以下是一个简单的 Python 示例,展示如何使用 MIGraphX 加载和运行一个 ONNX 模型:
import migraphx
# 加载 ONNX 模型
model = migraphx.parse_onnx("path/to/your/model.onnx")
# 编译模型
model.compile(migraphx.get_target("gpu"))
# 准备输入数据
input_data = {"input_name": migraphx.generate_argument(model.get_parameter_shapes()["input_name"])}
# 运行模型
output = model.run(input_data)
print(output)
应用案例和最佳实践
性能调优
MIGraphX 使用 MIOpen 内核来针对 AMD GPU。为了获得最佳性能,可以对 MIOpen 进行调优。设置环境变量 MIOPEN_FIND_ENFORCE=3 可以启动调优过程:
export MIOPEN_FIND_ENFORCE=3
调优过程可能需要较长时间,但可以显著提升性能。例如,在 ROCm v4.5 和 MI100 GPU 上,经过调优的 Inception 模型的平均推理时间从 0.01383ms 降低到 0.00459ms,性能提升了 3 倍。
模型优化
MIGraphX 提供了一系列优化技术,包括操作融合、算术简化、死代码消除、公共子表达式消除和常量传播。这些优化可以显著提升模型的推理性能。
典型生态项目
ROCm
ROCm 是 AMD 的开源 GPU 计算平台和编程模型,为深度学习和高性能计算提供了强大的支持。MIGraphX 作为 ROCm 生态系统的一部分,充分利用了 ROCm 提供的 GPU 计算能力。
MIOpen
MIOpen 是 AMD 的开源深度学习库,提供了高性能的 GPU 加速卷积神经网络操作。MIGraphX 使用 MIOpen 来实现对 AMD GPU 的高效支持。
rocBLAS
rocBLAS 是 AMD 的开源基本线性代数子程序库,提供了高性能的 GPU 加速线性代数操作。MIGraphX 在需要时会调用 rocBLAS 来加速特定的操作。
通过这些生态项目的协同工作,MIGraphX 能够为机器学习模型的推理提供高效、强大的支持。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C0131
let_datasetLET数据集 基于全尺寸人形机器人 Kuavo 4 Pro 采集,涵盖多场景、多类型操作的真实世界多任务数据。面向机器人操作、移动与交互任务,支持真实环境下的可扩展机器人学习00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python059
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7-FlashGLM-4.7-Flash 是一款 30B-A3B MoE 模型。作为 30B 级别中的佼佼者,GLM-4.7-Flash 为追求性能与效率平衡的轻量化部署提供了全新选择。Jinja00
AgentCPM-ReportAgentCPM-Report是由THUNLP、中国人民大学RUCBM和ModelBest联合开发的开源大语言模型智能体。它基于MiniCPM4.1 80亿参数基座模型构建,接收用户指令作为输入,可自主生成长篇报告。Python00