Shuffle 2.1.0版本候选发布:确定性AI代理、高可用性与数据存储自动化
Shuffle是一个开源的自动化工作流平台,它允许用户通过可视化界面构建、管理和执行复杂的工作流。该平台特别适合安全运营、IT自动化和业务流程自动化等场景。在最新发布的2.1.0版本候选版中,Shuffle团队引入了一系列重要功能和改进,显著提升了平台的可靠性、自动化能力和用户体验。
高可用性与确定性AI代理
本次更新最引人注目的是Orborus组件的高可用性支持。Orborus作为Shuffle的核心调度引擎,现在能够在云环境和本地部署中实现故障转移和可靠性提升。这意味着即使在部分节点故障的情况下,工作流执行也能持续运行,不会中断。
另一个重要进展是在AI代理方面的确定性控制能力。虽然完整功能将在2.1.0正式版中发布,但当前版本已经为构建可控、可预测的AI代理工作流奠定了基础。这对于需要精确控制LLM(大型语言模型)行为的应用场景尤为重要,如安全分析、合规检查等。
数据存储自动化与发布机制
数据存储系统获得了重大升级,新增了分类自动化和发布功能:
-
分类发布:管理员现在可以将特定数据存储分类设为公开,允许组织间共享威胁情报列表、检测规则集等数据。这一功能通过管理界面即可轻松配置。
-
自动化能力:数据存储分类现在支持原生自动化操作,包括触发工作流执行和发送Webhook通知。这意味着数据更新可以自动触发后续处理流程,大大减少了人工干预。
-
批量操作:系统优化了大规模数据处理的性能,单个分类现在能够高效处理数十万条记录,并支持批量更新操作。
组织管理与多租户改进
针对企业级用户,本次更新强化了子组织管理功能:
- 新增了子组织删除功能及相关的缓存管理机制,使组织结构的调整更加灵活。
- 管理员可以为子组织跳过SSO配置,简化管理流程。
- 修复了多租户环境下工作流加载的问题,确保子组织不会错误地引用父组织的工作流定义。
- 解决了应用在子组织中激活失败的问题,特别是当多个应用具有相同名称时的冲突情况。
技术架构优化
在底层架构方面,Shuffle 2.1.0-rc2进行了多项重要改进:
-
搜索引擎升级:平台已迁移至OpenSearch 3.0.0,提升了搜索性能和功能。
-
缓存优化:针对大型组织的缓存机制进行了全面优化,减少了不必要的缓存操作,提高了系统响应速度。
-
区域信息传播:修复了区域信息在平台中传播不一致的问题,确保分布式部署中各组件能正确识别当前区域。
-
Helm Chart改进:Kubernetes部署方案获得了多项增强,包括服务暴露方式调整、安全上下文配置和应用端口自定义等能力。
用户体验与界面改进
在前端方面,本次更新解决了多个影响用户体验的问题:
- 修复了主题切换导致的界面异常问题,确保亮色和暗色模式都能正常显示。
- 优化了工作流执行历史查看体验,当本地缓存中找不到执行记录时会自动向后端查询。
- 改进了服务部署的默认网络配置,减少了部署失败的可能性。
总结
Shuffle 2.1.0-rc2作为正式版发布前的关键里程碑,在平台可靠性、自动化能力和管理功能方面都取得了显著进步。高可用性支持使平台更适合生产环境部署,数据存储自动化开启了新的协作可能性,而确定性AI代理则为智能自动化应用铺平了道路。这些改进共同使Shuffle成为一个更强大、更可靠的企业级自动化平台。
随着后续版本的发布,我们可以期待更多关于AI代理控制和工作流智能化的创新功能。对于当前用户而言,2.1.0-rc2已经提供了足够稳定的功能集,值得在生产环境中进行评估和测试。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00