ONNX Runtime 1.20.1 在 CUDA 12.8 下的构建问题分析与解决方案
问题背景
在构建 ONNX Runtime 1.20.1 版本时,当使用 CUDA 12.8.0 作为计算平台并在 AlmaLinux 8 系统上进行编译时,开发者遇到了一个编译错误。这个错误源于 ONNX Runtime 代码中使用了已被 CUDA 标记为废弃的 Thrust 库中的 unary_function 模板结构体。
技术细节分析
Thrust 是 CUDA 提供的一个类似于 C++ STL 的并行算法库,它简化了 GPU 编程。在 ONNX Runtime 的 CUDA 提供者实现中,特别是在 compress_impl.cu 文件的第 26 行,代码定义了一个名为 CastToInt32 的结构体,它继承自 thrust::unary_function<int8_t, int32_t>。
随着 CUDA 12.8 的发布,NVIDIA 已经将 thrust::unary_function 标记为废弃(deprecated),这导致在编译时(特别是当编译器将警告视为错误时)构建过程会失败。
根本原因
这个问题的根本原因在于:
- API 演进:CUDA 生态系统持续演进,一些旧的接口被新的、更优的替代方案所取代
- 严格编译设置:现代构建系统通常会将编译器警告视为错误,以确保代码质量
- 版本兼容性:ONNX Runtime 1.20.1 发布时可能尚未完全适配 CUDA 12.8 的新特性
解决方案
对于遇到此问题的开发者,有以下几种解决方案:
临时解决方案
-
禁用特定警告: 在构建时添加编译器标志
-Wno-error=deprecated-declarations,这将允许编译继续,尽管使用了废弃的 API。 -
使用旧版 CUDA: 暂时回退到 CUDA 12.7 或更早版本进行构建,直到问题得到官方修复。
长期解决方案
-
代码修改: 修改
compress_impl.cu文件,不再使用thrust::unary_function,而是使用现代 C++ 的替代方案。例如,可以改为使用 C++11 的标准函数对象基类:
struct CastToInt32 { __host__ __device__ int32_t operator()(int8_t x) const { return static_cast<int32_t>(x); } }; -
等待官方更新: 关注 ONNX Runtime 的 GitHub 仓库,等待官方发布适配 CUDA 12.8 的版本更新。
对开发者的建议
- 版本控制:在项目中使用固定版本的 CUDA 工具包,避免因自动更新导致的构建问题
- 持续集成:在 CI/CD 流水线中测试新版本的 CUDA,提前发现兼容性问题
- 社区参与:遇到此类问题时,可以向 ONNX Runtime 社区提交 issue,帮助改进项目
总结
这个构建问题展示了在深度学习框架开发中常见的依赖管理挑战。随着 CUDA 生态系统的快速发展,框架开发者需要不断适配新的 API 变化。对于终端用户而言,理解这些兼容性问题的本质有助于快速找到解决方案,确保开发工作的顺利进行。
建议开发者根据自身项目需求选择合适的解决方案,平衡短期修复和长期维护的成本。同时,这也是一个很好的机会来审视项目中的技术债务,考虑更新那些依赖于即将废弃 API 的代码部分。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
GLM-4.7-FlashGLM-4.7-Flash 是一款 30B-A3B MoE 模型。作为 30B 级别中的佼佼者,GLM-4.7-Flash 为追求性能与效率平衡的轻量化部署提供了全新选择。Jinja00
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin07
compass-metrics-modelMetrics model project for the OSS CompassPython00