Swift项目v3.3.1版本发布:Agent训练与多模态模型支持全面升级
Swift是一个专注于高效模型训练和部署的开源框架,特别针对大语言模型和多模态模型进行了优化。最新发布的v3.3.1版本带来了多项重要更新,特别是在Agent训练和多模态模型支持方面有了显著提升。
Agent训练能力全面增强
本次更新最引人注目的是Agent训练部署模块的重大改进。框架引入了包括Hermes、GLM4_0414、Llama4等在内的十余种Agent模板,这些模板为不同类型的Agent任务提供了标准化的训练基础。开发者现在可以轻松地在不同模型之间切换训练Agent数据集,大大提高了开发效率和灵活性。
在底层实现上,Swift框架通过精心设计的模板系统,确保了不同模型间的兼容性。这意味着开发者可以基于同一套Agent数据集,快速尝试不同模型的训练效果,无需为每个模型单独准备数据格式。这种设计显著降低了Agent开发的门槛,使得更多开发者能够参与到Agent应用的创新中来。
GRPO训练优化与显存管理
在强化学习优化方面,GRPO训练现在支持调用外部vLLM服务器。这一改进带来了显存分配的灵活性提升,开发者可以根据实际需求将训练和推理任务分配到不同的计算资源上。对于资源受限的场景,这种分离式架构特别有价值,它允许开发者更高效地利用有限的计算资源。
在实际应用中,这意味着开发者可以在保持训练过程的同时,将模型推理部署到专门的服务器上,两者互不干扰。这种架构特别适合需要持续在线服务的大规模模型应用场景。
多模态模型支持扩展
v3.3.1版本新增了对多个重要多模态模型系列的支持:
-
OpenGVLab的InternVL3-1B系列模型获得全面支持。这个系列的模型在视觉-语言任务上表现出色,特别适合需要结合图像和文本理解的应用场景。
-
moonshotai的Kimi-VL-A3B-Instruct系列模型也被纳入支持范围。这些模型在指令跟随和多模态交互方面有独特优势。
-
智谱AI的GLM-4-9B-0414和GLM-Z1-9B-0414系列模型同样获得了框架支持。这些模型在中文处理和多任务学习方面表现优异。
训练稳定性与效率提升
除了上述主要特性外,本次更新还包含了一系列训练稳定性和效率的改进:
- 修复了采样和RFT(Reward Finetuning)过程中的若干问题,提高了训练稳定性
- 优化了GRPO训练中的长序列过滤机制,防止内存溢出
- 改进了多模态模型的目标模块选择机制,提升了训练效率
- 增加了验证数据集打乱功能,有助于更准确地评估模型性能
这些改进共同构成了一个更加健壮和高效的训练框架,为开发者提供了更好的使用体验。
总结
Swift v3.3.1版本的发布标志着该框架在Agent训练和多模态模型支持方面迈出了重要一步。通过引入标准化的Agent模板、优化GRPO训练架构以及扩展多模态模型支持,Swift为AI开发者提供了更强大、更灵活的工具集。这些改进不仅提升了开发效率,也降低了复杂模型应用的入门门槛,有助于推动更多创新AI应用的诞生。
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00
LazyLLMLazyLLM是一款低代码构建多Agent大模型应用的开发工具,协助开发者用极低的成本构建复杂的AI应用,并可以持续的迭代优化效果。Python01