dstack 0.19.0版本发布:GPU云平台集成与分布式计算新特性
dstack是一个专注于提供多云GPU计算能力的开源平台,它简化了在不同云服务提供商上运行GPU工作负载的流程。通过抽象底层基础设施的复杂性,dstack让开发者能够专注于机器学习、深度学习等计算密集型任务的开发与部署。
后端集成简化
0.19.0版本对后端集成架构进行了重大重构,显著降低了新增云服务支持的开发难度。平台现已支持AWS、Azure、GCP等主流云服务,以及RunPod、Lambda等专业GPU提供商。新的集成架构通过模块化设计,将核心功能与特定云服务实现解耦,开发者只需实现少量必要接口即可完成新后端的接入。这种设计不仅提高了代码的可维护性,也为未来支持更多GPU提供商奠定了基础。
分布式计算能力增强
新版本在分布式任务支持方面取得了重要进展。平台现在自动配置节点间的SSH连接,使得在分布式环境中执行MPI任务变得异常简单。用户只需使用标准的ssh <node_ip>命令即可在集群节点间自由切换,这为运行mpirun等分布式计算工具提供了原生支持。这一特性特别适合需要进行NCCL测试或大规模分布式训练的场景,开发者可以轻松构建跨节点的计算集群。
监控与成本管理
0.19.0版本引入了全面的监控指标体系,在原有DCGM指标基础上新增了成本和使用量相关的Prometheus指标。这些指标包括:
- 实例运行成本
- 资源使用效率
- 任务执行开销
- 硬件利用率
通过这些指标,运维团队可以构建精细化的成本监控仪表盘,实时掌握GPU资源的使用情况和成本分布,为资源优化和预算控制提供数据支持。
开发环境支持扩展
平台现在新增了对Cursor IDE的支持,开发者可以在配置文件中简单指定ide: cursor即可启动基于Cursor的开发环境。这一特性进一步丰富了dstack的IDE生态系统,为不同开发偏好的用户提供了更多选择。
API与配置优化
本次发布对Python API进行了重构,废弃了原先设计不够优雅的get_plan()、exec_plan()等方法,引入了更符合RESTful设计原则的新接口。同时,平台移除了多项已弃用或未充分文档化的功能,包括:
- 旧的运行命令模式
- 资源池(Pools)功能
- 过时的重试策略配置
- 闲置终止时间设置
这些变更使得API更加简洁一致,减少了用户的认知负担。
技术架构演进
从技术架构角度看,0.19.0版本标志着dstack平台走向成熟的重要一步。通过解耦核心逻辑与云服务实现,平台获得了更好的扩展性;通过标准化监控指标,提升了运维可见性;通过简化分布式计算配置,增强了平台在AI训练等场景下的实用性。这些改进共同推动dstack向更稳定、更易用的方向发展。
对于现有用户,建议按照先升级服务器再升级客户端的顺序进行迁移,以确保兼容性。新用户可以借助这一版本更全面地评估dstack在多云GPU管理方面的能力。随着集成生态的持续丰富和核心功能的不断完善,dstack正在成为连接开发者与云端算力的重要桥梁。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00