dstack项目0.19.11版本发布:全面升级Python包管理与云平台支持
dstack是一个开源的机器学习工作流编排工具,它帮助数据科学家和机器学习工程师在云平台上高效地运行和管理他们的工作负载。最新发布的0.19.11版本带来了多项重要改进,特别是在Python包管理、插件系统和云平台支持方面。
Python包管理革命:从conda到uv
本次版本最显著的改变是默认Docker镜像中移除了conda,转而采用新兴的uv工具。uv是由Astral团队开发的高性能Python包管理器,在安装大型Python包时展现出惊人的速度优势。
测试数据显示,在GCP虚拟机上安装torch包时,uv仅需32秒,而传统pip则需要2分26秒,速度提升近5倍。这种性能提升对于需要频繁安装依赖的机器学习工作流来说意义重大。
为了保持兼容性,dstack现在会自动激活一个包含pip的虚拟环境。对于仍需要conda的用户,可以通过以下命令手动安装:
wget -O miniconda.sh https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
bash miniconda.sh -b -p /workflow/miniconda
eval "$(/workflow/miniconda/bin/conda shell.bash hook)"
插件系统创新:REST API插件支持
0.19.11版本引入了一个内置的rest_plugin功能,允许开发者通过API服务器的方式实现自定义插件,而不再局限于Python包形式。这种新架构带来三大优势:
- 彻底避免了与dstack核心的依赖冲突问题
- 支持使用任意编程语言开发插件
- 简化了Docker环境下的插件部署,无需扩展镜像或配置卷映射
开发者可以参考项目提供的插件服务器示例快速上手,REST插件API文档详细说明了接口规范。
云平台支持全面升级
AWS平台增强
新增对最新一代Intel Xeon Sapphire Rapids处理器的支持,包括M7i、C7i和R7i系列实例。同时加入了T3系列可突增性能实例的支持,扩展了用户的选择范围。
Azure平台优化
同样基于Intel Xeon Sapphire Rapids处理器,新增了Dsv6(通用型)和Esv6(内存优化型)系列实例。值得注意的是,Dsv3和Esv4系列实例已被标记为弃用状态。
GCP平台扩展
新增支持C4、M4、H3、N4和N2系列实例,大大丰富了计算选项。需要注意的是,部分新实例类型目前暂不支持卷存储功能,这是由于其依赖的Hyperdisk支持尚未完善。
新增示例:分布式训练实践
本次发布新增了一个Ray+RAGEN的分布式训练示例,展示了如何结合dstack和RAGEN框架在多节点环境下进行智能体微调。这个示例为需要进行大规模分布式训练的用户提供了实用参考。
向后兼容性说明
本次更新包含一个重要的破坏性变更:conda不再包含在默认Docker镜像中。用户如果需要使用conda环境,必须按照上述方法手动安装。
此外,Azure平台的Dsv3和Esv4系列实例已被标记为弃用状态,建议用户迁移到新的实例类型。
技术细节优化
除了上述主要特性外,0.19.11版本还包含多项技术改进:
- 优化了metrics命令的用户体验
- 修复了服务统计数据的请求过滤问题
- 改进了代码上传限制的错误提示信息
- 更新了Azure虚拟机镜像中的GRID驱动程序
- 移除了humanize依赖项,简化了项目依赖
这些改进共同提升了dstack的稳定性、性能和用户体验,使其成为机器学习工作流管理的更加强大和高效的工具选择。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00