首页
/ ModelScope项目环境变量配置与ONNX Runtime优化指南

ModelScope项目环境变量配置与ONNX Runtime优化指南

2025-05-29 03:00:18作者:姚月梅Lane

环境变量配置:自定义ModelScope下载路径

在使用ModelScope进行模型下载和管理时,默认情况下模型会保存在系统默认路径(通常是C盘)。对于存储空间有限的用户,可以通过设置环境变量来指定自定义存储路径。

配置方法

在Python代码中,可以通过以下方式设置ModelScope的缓存路径:

import os
os.environ["MODELSCOPE_CACHE"] = "D:/your/custom/path"  # 替换为你想要的路径

注意事项

  1. 路径字符串可以使用正斜杠(/)或双反斜杠(\\),但建议使用正斜杠以避免转义问题
  2. 路径应当提前创建好,确保程序有写入权限
  3. 建议将这段代码放在程序的最开始部分执行,确保在加载任何模型前已设置好路径

ONNX Runtime后端配置:使用DirectML提供器

对于Windows平台且拥有支持DirectX 12的GPU用户,可以通过配置ONNX Runtime使用DirectML(DML)提供器来加速模型推理。

配置方法

import onnxruntime as ort

# 创建会话选项时指定DML作为执行提供器
sess_options = ort.SessionOptions()
providers = ['DmlExecutionProvider']
session = ort.InferenceSession("model.onnx", sess_options=sess_options, providers=providers)

技术背景

DirectML是微软提供的跨厂商硬件加速API,具有以下优势:

  • 支持AMD、Intel和NVIDIA的GPU
  • 在Windows平台上性能优化更好
  • 可以避免CUDA依赖带来的兼容性问题

使用建议

  1. 确保系统已安装最新显卡驱动
  2. 验证GPU是否支持DirectX 12
  3. 对于复杂模型,可以比较DML与CUDA提供器的性能差异

综合配置示例

以下是一个完整的配置示例,同时设置自定义缓存路径和DML提供器:

import os
import onnxruntime as ort

# 设置ModelScope缓存路径
os.environ["MODELSCOPE_CACHE"] = "D:/AI_Models"

# 配置ONNX Runtime使用DML
sess_options = ort.SessionOptions()
providers = ['DmlExecutionProvider']

# 加载模型
model_path = "D:/AI_Models/your_model.onnx"
session = ort.InferenceSession(model_path, sess_options=sess_options, providers=providers)

通过合理配置这些参数,可以优化ModelScope项目的存储管理和计算性能,特别是在资源受限的环境中。

登录后查看全文
热门项目推荐
相关项目推荐

项目优选

收起
kernelkernel
deepin linux kernel
C
22
6
docsdocs
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
197
2.17 K
ohos_react_nativeohos_react_native
React Native鸿蒙化仓库
C++
208
285
pytorchpytorch
Ascend Extension for PyTorch
Python
59
94
RuoYi-Vue3RuoYi-Vue3
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
973
574
nop-entropynop-entropy
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
9
1
ops-mathops-math
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
549
81
openHiTLSopenHiTLS
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!
C
1.02 K
399
communitycommunity
本项目是CANN开源社区的核心管理仓库,包含社区的治理章程、治理组织、通用操作指引及流程规范等基础信息
393
27
MateChatMateChat
前端智能化场景解决方案UI库,轻松构建你的AI应用,我们将持续完善更新,欢迎你的使用与建议。 官网地址:https://matechat.gitcode.com
1.2 K
133