LLM-Foundry项目中的AMD MI250 GPU性能优化解析
2025-06-14 10:37:27作者:钟日瑜
在LLM-Foundry项目中使用AMD MI250 GPU进行Transformer模型(GPT架构)基准测试时,开发者发现其吞吐量仅为NVIDIA A100 GPU的一半左右。这一现象引发了性能优化方面的深入探讨。
性能差异现象
测试数据显示,在7B参数的模型上,A100 GPU(4卡)的吞吐量为14k tokens/s,而MI250(8卡)仅为12.8k tokens/s。在13.3B参数的模型上,A100(8卡)达到12.9k tokens/s,而MI250(8卡)只有6k tokens/s。表面上看,MI250的性能确实只有A100的一半。
根本原因分析
经过深入调查,发现这是由于PyTorch对AMD MI250 GPU的特殊识别方式导致的。MI250实际上由两个GCD(图形计算单元)组成,但PyTorch会将每个MI250识别为两个独立的设备。因此:
- 4块MI250物理卡会被识别为8个设备
- Composer报告的"tokens/s/gpu"实际上是"tokens/s/GCD"
- 要得到真正的MI250卡性能,需要将结果乘以2
技术背景
AMD MI250采用了多芯片模块(MCM)设计,每个物理卡包含两个GCD。这种设计与传统GPU不同,导致软件层面的识别方式有差异。相比之下,NVIDIA A100是单芯片设计,识别方式更为直接。
性能对比修正
考虑这一因素后重新计算:
- 7B模型在MI250上的实际吞吐量应为1602×2=3204 tokens/s/GCD
- 13.3B模型在MI250上的实际吞吐量应为753×2=1506 tokens/s/GCD
这样与A100的3700和1613 tokens/s/GCD相比,性能差距明显缩小。
未来展望
值得注意的是,AMD新一代MI300X GPU将改变这一设计,8卡系统将被正确识别为8个设备,不再需要手动调整计算。这反映了硬件设计趋势与软件生态的协同演进。
实践建议
对于使用MI250进行LLM训练的开发人员,建议:
- 明确区分物理卡数量和PyTorch识别的设备数量
- 在性能评估时进行适当的倍数调整
- 关注硬件规格文档,了解底层架构特点
- 在跨平台比较时考虑这些架构差异
通过正确理解硬件特性和软件识别机制,开发者可以更准确地评估和优化系统性能。
登录后查看全文
热门项目推荐
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
yuanrongopenYuanrong runtime:openYuanrong 多语言运行时提供函数分布式编程,支持 Python、Java、C++ 语言,实现类单机编程高性能分布式运行。Go051
pc-uishopTNT开源商城系统使用java语言开发,基于SpringBoot架构体系构建的一套b2b2c商城,商城是满足集平台自营和多商户入驻于一体的多商户运营服务系统。包含PC 端、手机端(H5\APP\小程序),系统架构以及实现案例中应满足和未来可能出现的业务系统进行对接。Vue00
ebook-to-mindmapepub、pdf 拆书 AI 总结TSX01
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
541
3.77 K
Ascend Extension for PyTorch
Python
351
419
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
889
615
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
338
186
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
988
253
openGauss kernel ~ openGauss is an open source relational database management system
C++
169
233
暂无简介
Dart
778
194
华为昇腾面向大规模分布式训练的多模态大模型套件,支撑多模态生成、多模态理解。
Python
115
141
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.35 K
759