Flowgram.ai v0.2.0版本发布:变量系统重大升级与编辑器优化
Flowgram.ai是一个专注于可视化编程和流程自动化的开源项目,它通过图形化界面让开发者能够更直观地构建复杂的工作流。该项目提供了丰富的布局编辑器和表单组件,使得构建自动化流程变得更加简单高效。
变量系统架构重构
本次v0.2.0版本带来了变量系统的重大架构调整,主要体现在类型定义和数据结构上的优化。新的变量系统设计更加严谨,为后续的功能扩展打下了坚实基础。
变量选择器(value)类型变更
在表单材料库(@flowgram.ai/form-materials)中,VariableSelector组件的value属性类型从string变更为string[]。这一变更使得变量选择器能够支持多值选择,为批量操作提供了更好的支持。
// 旧版本(0.1.x)
interface VariableSelectorPropsType {
value: string;
}
// 新版本(0.2.x)
interface VariableSelectorPropsType {
value: string[];
}
值模式(Value Schema)重构
在自由布局编辑器(@flowgram.ai/free-layout-editor)和固定布局编辑器(@flowgram.ai/fixed-layout-editor)中,值模式的定义得到了全面重构:
- 将原来的简单联合类型拆分为明确定义的接口
- 每种值类型都有清晰的类型标识和内容定义
- 引用值(ref)的内容现在支持数组形式
// 新版本的值模式定义
export interface IFlowConstantValue {
type: 'constant';
content?: string | number | boolean;
}
export interface IFlowRefValue {
type: 'ref';
content?: string[];
}
// ...其他值类型定义
这种重构使得类型系统更加健壮,开发者在使用时能获得更好的类型提示和校验。
编辑器功能优化
自由布局快捷键修复
修复了自由布局编辑器(freeLayout)中删除快捷键失效的问题。现在用户可以使用快捷键更高效地进行元素删除操作,提升了编辑体验。
循环批量变量材料支持
新增了对循环批量变量材料的支持,这使得在处理需要批量操作的场景时更加方便。开发者现在可以更容易地创建和管理批量变量,特别是在处理循环结构中的数据时。
输出变量键名调整
在演示项目中,同步变量插件(sync-variable-plugin)的输出变量键名进行了调整:
// 旧版本
key: `${node.id}.outputs`
// 新版本
key: `${node.id}`
这一变更简化了变量引用路径,使得在流程中引用节点输出时更加直观和简洁。
升级建议
对于正在使用Flowgram.ai的开发者,升级到v0.2.0版本时需要注意以下几点:
- 检查所有使用VariableSelector的地方,确保正确处理数组类型的value
- 更新类型定义导入,使用新的IFlowValue等接口
- 检查流程中变量引用的路径,适应新的输出变量键名格式
这次升级虽然包含了一些破坏性变更,但这些改进为项目未来的发展奠定了更坚实的基础,特别是在处理复杂变量场景和批量操作方面提供了更好的支持。建议开发者尽快评估升级影响并进行相应调整。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00