MLRun v1.10.0-rc1 版本深度解析与特性前瞻
2025-07-01 03:12:43作者:裴锟轩Denise
MLRun 作为一个开源的机器学习运维(MLOps)平台,为数据科学家和机器学习工程师提供了端到端的机器学习生命周期管理能力。在最新发布的 v1.10.0-rc1 候选版本中,MLRun 团队带来了多项重要更新和改进,涵盖了从模型监控到运行时优化等多个关键领域。
核心特性解析
模型监控体系全面升级
本次版本对模型监控功能进行了重大改进,移除了对 taoswrap 的依赖,转而采用更高效的 TSDB 指标查询机制。开发者现在可以指定需要返回的 TSDB 指标列表,显著提升了 get_model_endpoint 调用的性能,特别是在流处理场景下。
模型监控写入器现在支持多工作线程模式,提高了大规模监控场景下的吞吐量。同时修复了 TDengine 时间戳精度问题,现在能够支持微秒级精度,为高精度监控场景提供了更好的支持。
运行时环境优化
MLRun 在运行时环境方面进行了多项改进:
- Spark 和 Dask 运行时现在能够从抢占模式调度约束中自动获取驱动和执行器的配置参数,优化了资源利用率
- MPIJob 的服务器端轮询机制得到改进,提高了作业启动的可靠性
- 引入了 Python 3.11 支持,Jupyter 和 API 服务镜像均已升级到 Python 3.11 版本
- GPU 镜像升级到 CUDA 12.8.1,为深度学习任务提供了更好的硬件加速支持
存储与数据管理增强
在数据存储管理方面,新版本引入了多项改进:
- 批量删除对象机制解决了大规模删除操作可能导致的超时问题
- 修复了带标签查询时的排序问题,确保"latest"标签始终优先显示
- 改进了时间戳处理逻辑,能够正确处理不带毫秒部分的时间戳
- 数据存储现在支持解析"ds://"格式的URL,提升了与IPython环境的集成度
文档与教程完善
MLRun 团队持续完善文档体系,新增了多个实用教程和说明:
- 向量数据库使用教程,帮助开发者快速上手向量检索场景
- 本地运行与远程运行的对比说明,帮助用户理解不同环境下的行为差异
- 模型监控中TDengine和Kafka的配置指南
- 秘密管理最佳实践,提高安全性意识
- Spark数据摄取详细说明,扩展了数据源支持
技术架构改进
依赖管理与构建系统
项目构建系统进行了现代化改造:
- 从传统的setup.py迁移到pyproject.toml,符合Python打包最新标准
- 严格限制pip版本到25.0.x系列,确保构建环境一致性
- 自动化依赖升级机制,保持第三方库处于最新稳定版本
- 移除了Python 3.11的lint检查,为全面支持Python 3.11铺平道路
性能优化与代码质量
在性能优化方面:
- 模型端点Pydantic模型构建过程得到优化
- 移除了大量已弃用代码,保持代码库精简
- 服务端和客户端单元测试运行器分离,提高测试效率
- 改进了假设测试的健康检查,修复了CI中的测试失败问题
使用建议与升级注意事项
对于计划升级到v1.10.0版本的用户,需要注意以下几点:
- 本地开发环境建议同步升级到Python 3.11以获得最佳兼容性
- 模型监控配置需要相应调整,特别是使用TDengine的场景
- 升级后需要重建自定义镜像以确保所有组件版本兼容
- 注意检查是否有使用已移除的废弃API,及时更新代码
这个候选版本展示了MLRun作为成熟MLOps平台的持续进化能力,从核心功能到开发者体验都进行了全面优化。正式版本发布后,将为机器学习工程化提供更强大、更稳定的支持。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust0137- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniCPM-V-4.6这是 MiniCPM-V 系列有史以来效率与性能平衡最佳的模型。它以仅 1.3B 的参数规模,实现了性能与效率的双重突破,在全球同尺寸模型中登顶,全面超越了阿里 Qwen3.5-0.8B 与谷歌 Gemma4-E2B-it。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
MusicFreeDesktop插件化、定制化、无广告的免费音乐播放器TypeScript00
热门内容推荐
最新内容推荐
项目优选
收起
暂无描述
Dockerfile
725
4.66 K
Ascend Extension for PyTorch
Python
597
749
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
425
377
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
992
985
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
981
137
昇腾LLM分布式训练框架
Python
160
190
暂无简介
Dart
969
246
deepin linux kernel
C
29
16
Oohos_react_native
React Native鸿蒙化仓库
C++
345
393
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.65 K
970