MLRun v1.10.0-rc1 版本深度解析与特性前瞻
2025-07-01 03:12:43作者:裴锟轩Denise
MLRun 作为一个开源的机器学习运维(MLOps)平台,为数据科学家和机器学习工程师提供了端到端的机器学习生命周期管理能力。在最新发布的 v1.10.0-rc1 候选版本中,MLRun 团队带来了多项重要更新和改进,涵盖了从模型监控到运行时优化等多个关键领域。
核心特性解析
模型监控体系全面升级
本次版本对模型监控功能进行了重大改进,移除了对 taoswrap 的依赖,转而采用更高效的 TSDB 指标查询机制。开发者现在可以指定需要返回的 TSDB 指标列表,显著提升了 get_model_endpoint 调用的性能,特别是在流处理场景下。
模型监控写入器现在支持多工作线程模式,提高了大规模监控场景下的吞吐量。同时修复了 TDengine 时间戳精度问题,现在能够支持微秒级精度,为高精度监控场景提供了更好的支持。
运行时环境优化
MLRun 在运行时环境方面进行了多项改进:
- Spark 和 Dask 运行时现在能够从抢占模式调度约束中自动获取驱动和执行器的配置参数,优化了资源利用率
- MPIJob 的服务器端轮询机制得到改进,提高了作业启动的可靠性
- 引入了 Python 3.11 支持,Jupyter 和 API 服务镜像均已升级到 Python 3.11 版本
- GPU 镜像升级到 CUDA 12.8.1,为深度学习任务提供了更好的硬件加速支持
存储与数据管理增强
在数据存储管理方面,新版本引入了多项改进:
- 批量删除对象机制解决了大规模删除操作可能导致的超时问题
- 修复了带标签查询时的排序问题,确保"latest"标签始终优先显示
- 改进了时间戳处理逻辑,能够正确处理不带毫秒部分的时间戳
- 数据存储现在支持解析"ds://"格式的URL,提升了与IPython环境的集成度
文档与教程完善
MLRun 团队持续完善文档体系,新增了多个实用教程和说明:
- 向量数据库使用教程,帮助开发者快速上手向量检索场景
- 本地运行与远程运行的对比说明,帮助用户理解不同环境下的行为差异
- 模型监控中TDengine和Kafka的配置指南
- 秘密管理最佳实践,提高安全性意识
- Spark数据摄取详细说明,扩展了数据源支持
技术架构改进
依赖管理与构建系统
项目构建系统进行了现代化改造:
- 从传统的setup.py迁移到pyproject.toml,符合Python打包最新标准
- 严格限制pip版本到25.0.x系列,确保构建环境一致性
- 自动化依赖升级机制,保持第三方库处于最新稳定版本
- 移除了Python 3.11的lint检查,为全面支持Python 3.11铺平道路
性能优化与代码质量
在性能优化方面:
- 模型端点Pydantic模型构建过程得到优化
- 移除了大量已弃用代码,保持代码库精简
- 服务端和客户端单元测试运行器分离,提高测试效率
- 改进了假设测试的健康检查,修复了CI中的测试失败问题
使用建议与升级注意事项
对于计划升级到v1.10.0版本的用户,需要注意以下几点:
- 本地开发环境建议同步升级到Python 3.11以获得最佳兼容性
- 模型监控配置需要相应调整,特别是使用TDengine的场景
- 升级后需要重建自定义镜像以确保所有组件版本兼容
- 注意检查是否有使用已移除的废弃API,及时更新代码
这个候选版本展示了MLRun作为成熟MLOps平台的持续进化能力,从核心功能到开发者体验都进行了全面优化。正式版本发布后,将为机器学习工程化提供更强大、更稳定的支持。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00
热门内容推荐
最新内容推荐
绝杀 Tauri/Pake Mac 打包报错:`failed to run xattr` 的底层逻辑与修复方案避坑指南:Pake 打包网页为何“高级功能失效”?深度解析拖拽与下载的底层限制Tauri/Pake 体积极限优化:如何把 12MB 的应用无情压榨到 2MB 以内?受够了 100MB+ 的套壳 App?最强 Electron 替代方案 Pake 深度测评与原理解析告别臃肿积木!用 Pake 1 分钟把任意网页变成 3MB 桌面 App(附国内极速环境包)智能票务抢票系统:突破手动抢票瓶颈的效率革命方案如何利用Path of Building PoE2高效规划流放之路2角色构建代码驱动的神经网络可视化:用PlotNeuralNet绘制专业架构图whisper.cpp CUDA加速实战指南:让语音识别效率提升6倍的技术解析Windows 11系统PicGo高效解决安装与更新全流程指南
项目优选
收起
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
663
4.27 K
deepin linux kernel
C
28
15
Ascend Extension for PyTorch
Python
506
612
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
941
868
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
394
292
暂无简介
Dart
911
219
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.54 K
894
AscendNPU-IR是基于MLIR(Multi-Level Intermediate Representation)构建的,面向昇腾亲和算子编译时使用的中间表示,提供昇腾完备表达能力,通过编译优化提升昇腾AI处理器计算效率,支持通过生态框架使能昇腾AI处理器与深度调优
C++
124
198
昇腾LLM分布式训练框架
Python
142
168
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!
C
1.07 K
557