dstack项目0.19.2版本发布:新增Nebius云平台支持与运行指标可视化
dstack是一个开源的机器学习工作流编排工具,它帮助研究人员和工程师轻松地在云平台上运行计算密集型任务。该项目通过简洁的YAML配置定义工作流,并支持多种云服务提供商的后端集成。
新增Nebius云平台支持
本次0.19.2版本最引人注目的特性是新增了对Nebius云平台的完整支持。Nebius是一家提供高性能NVIDIA GPU的云服务提供商,以其具有竞争力的价格优势而著称。
通过dstack的集成,用户现在可以直接使用Nebius提供的多种计算资源配置,包括:
- 配备L40S GPU(48GB显存)的实例
- 配备H100 GPU(80GB显存)的高性能实例
- 配备最新H200 GPU(141GB显存)的顶级实例
- 多GPU配置的分布式计算节点
这些实例覆盖了从基础研究到大规模训练的各种需求场景。特别是H200 GPU实例的加入,为需要超大显存的大模型训练任务提供了新的选择。
运行指标可视化功能增强
另一个重要改进是运行指标监控系统的全面升级。新版本中:
-
Web界面新增Metrics页面:用户现在可以通过直观的图表界面实时查看任务的CPU、内存和GPU使用情况,无需再依赖命令行工具。
-
命令行工具改进:原有的
dstack stats命令已更名为更符合语义的dstack metrics,并对输出格式进行了优化:- CPU使用率现在统一以百分比形式显示(100%表示单核满载),不再因核心数不同而产生理解上的混淆
- 内存和GPU指标显示更加清晰易读
-
监控数据标准化:所有指标数据都经过规范化处理,使得不同配置的实例间比较更加直观。
其他改进与修复
除了上述主要特性外,本次更新还包括:
- 多个文档和博客文章的更新,包括新增的MPI和NCCL/RCCL测试支持指南
- DeepSeek-R1模型响应处理的兼容性改进
- 安全增强:为指标端点添加了可选的Bearer认证支持
- 新增SgLang和NIM语言示例配置
技术价值与应用场景
dstack 0.19.2版本的发布为机器学习工作流管理带来了两个重要价值:
-
云平台选择多样性:Nebius的加入为用户提供了又一个高性价比的GPU计算选择,特别是在需要最新一代H系列GPU进行大模型训练的场景下。
-
运维可视化:增强的指标监控功能使得研究人员可以更轻松地:
- 识别计算瓶颈
- 优化资源利用率
- 及时发现异常情况
- 进行成本效益分析
这些改进共同降低了机器学习项目的基础设施管理复杂度,让研究人员可以更专注于算法和模型本身。
对于考虑采用dstack的团队来说,0.19.2版本标志着该项目在功能完备性和用户体验方面又向前迈进了一大步。特别是对于那些需要频繁在不同云平台间迁移工作负载,或需要精细监控资源使用情况的用户,这个版本提供了显著的价值提升。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00