ModularML平台25.3版本发布:Mojo与MAX迎来重大更新
ModularML是一个专注于高性能计算和人工智能的开发者平台,其核心由Mojo编程语言和MAX引擎组成。Mojo作为Python的超集,专为AI和高性能计算场景设计;而MAX则是一个面向AI模型的高效推理引擎。本次发布的25.3版本标志着平台发展的重要里程碑,在开发者体验和开源策略方面都有显著提升。
统一安装体验
25.3版本最直观的改进是引入了统一的pip install modular安装方式。这一改变彻底简化了开发者的入门流程,通过单个pip命令即可同时获取Mojo编程环境和MAX推理引擎。这种集成化的安装方式不仅减少了配置环境的复杂度,更重要的是为Mojo和MAX的协同工作提供了无缝体验。
在底层实现上,这个统一的安装包采用了智能的依赖管理和组件化设计,能够根据用户的实际使用需求动态加载必要的组件。这种设计既保证了核心功能的完整性,又避免了不必要的资源占用。
大规模代码开源
本次版本最引人注目的技术贡献是开源了MAX Kernels和Serving API,总计超过50万行代码。这些开源的组件包括:
- 核心计算内核:针对不同硬件架构优化的高性能计算内核
- 模型服务框架:支持高并发、低延迟的模型推理服务
- 预处理/后处理管道:完整的数据处理工作流实现
开源这些核心组件不仅展示了Modular团队的技术自信,更重要的是为社区开发者提供了学习高性能AI系统实现的宝贵资源。开发者现在可以深入探究大规模AI模型服务系统的内部实现,甚至可以根据特定需求进行定制化修改。
Google Colab集成
25.3版本正式支持Google Colab环境,这一特性极大地降低了开发者体验MAX模型的准入门槛。现在,开发者可以直接在Colab笔记本中:
- 快速安装Modular环境
- 加载预训练的MAX模型
- 进行交互式的模型测试和推理
- 利用Colab的免费GPU资源加速计算
这种云端集成特别适合教育场景和快速原型开发,开发者无需配置本地环境即可体验Modular平台的全部能力。
简化的社区许可
本次更新还包括了许可证的简化,新的社区许可条款更加宽松和明确。主要改进包括:
- 移除了不必要的使用限制
- 明确了商业用途的边界
- 简化了贡献者协议流程
这种许可策略的调整反映了Modular团队"社区优先"的发展理念,旨在吸引更多开发者参与生态建设。
技术影响与展望
从技术架构角度看,25.3版本的发布标志着Modular平台从封闭走向开放的重要转折。开源的MAX内核实现将为社区带来以下潜在影响:
- 促进异构计算创新:开发者可以针对特定硬件优化内核实现
- 加速模型部署:更透明的服务框架有助于企业级部署
- 推动生态发展:降低参与门槛将吸引更多贡献者
未来,随着更多开发者参与到这个生态中,我们可以预期看到基于MAX的各种优化实现和扩展功能出现,进一步丰富Modular平台的能力边界。同时,Mojo语言与MAX引擎的深度集成也将为AI和高性能计算领域带来新的开发范式。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00