ONNX项目应对ONNX Runtime 1.20版本兼容性问题的技术方案
ONNX Runtime 1.20版本发布后,由于其对Python版本支持的调整,导致ONNX项目中的部分CI/CD流水线出现阻塞问题。本文将详细介绍这一兼容性问题的背景、影响范围以及ONNX项目团队采取的解决方案。
问题背景
ONNX Runtime作为ONNX模型的高性能推理引擎,在1.20版本中做出了一个重要变更:停止对Python 3.8和Python 3.9的支持。这一决策是为了与NumPy项目的Python版本支持策略保持一致。对于仍需要使用Python 3.8和3.9的用户,官方建议继续使用1.19.2及更早版本的ONNX Runtime。
影响分析
这一变更直接影响了ONNX项目的持续集成环境,特别是那些基于Python 3.8和3.9的测试流水线。由于ONNX项目需要确保与不同版本ONNX Runtime的兼容性,这种上游依赖的版本策略变更必须得到及时响应和处理。
解决方案
ONNX项目团队采取了以下技术措施来解决这一问题:
-
版本锁定策略:在CI/CD配置中明确指定使用ONNX Runtime 1.19.2版本,确保测试环境稳定。
-
Python版本支持调整:考虑逐步减少对Python 3.8的支持,特别是在ONNX 1.18版本中。这一决策基于对用户群体和使用场景的评估,以及对维护成本的考量。
-
持续集成环境优化:重新配置测试矩阵,确保不同Python版本与对应ONNX Runtime版本的兼容性组合得到充分测试。
技术建议
对于使用ONNX生态系统的开发者,我们建议:
-
如果项目仍在使用Python 3.8或3.9,应明确指定使用ONNX Runtime 1.19.2或更早版本。
-
考虑升级Python环境到3.10或更高版本,以获得更好的兼容性和性能支持。
-
在依赖管理文件中明确指定ONNX Runtime的版本范围,避免自动升级到不兼容的版本。
未来规划
ONNX项目将持续关注上游依赖的版本策略变化,并建立更完善的兼容性测试机制。同时,项目团队将评估对较旧Python版本的支持策略,在确保稳定性的前提下,逐步推进技术栈的现代化。
通过这次事件,ONNX项目也验证了其应对上游依赖变更的快速响应能力,为后续类似问题的处理积累了宝贵经验。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00