流体工作流(Fluere)开源项目教程
2025-04-20 15:26:34作者:管翌锬
1. 项目介绍
流体工作流(Fluere)是一个简单、轻量级的工作流引擎,使用TypeScript开发。它具有以下特性:
- 最小核心API(小于2KB)
- 100% 类型安全
- 事件驱动,流式编程
- 支持多种JavaScript运行时/框架
流体工作流旨在提供一种简单的方式,通过事件驱动的流来管理复杂的工作流。
2. 项目快速启动
首先,确保您的系统中已安装Node.js。
安装流体工作流核心包
使用npm:
npm i @llama-flow/core
或者使用yarn:
yarn add @llama-flow/core
或者使用pnpm:
pnpm add @llama-flow/core
创建工作流
以下是创建一个简单工作流的步骤:
- 定义事件:
import { workflowEvent } from "@llama-flow/core";
const startEvent = workflowEvent<string>();
const stopEvent = workflowEvent<1 | -1>();
- 连接事件到工作流:
import { createWorkflow } from "@llama-flow/core";
const convertEvent = workflowEvent();
const workflow = createWorkflow();
workflow.handle([startEvent], (start) => {
return convertEvent.with(Number.parseInt(start.data, 10));
});
workflow.handle([convertEvent], (convert) => {
return stopEvent.with(convert.data > 0 ? 1 : -1);
});
- 触发工作流:
import { pipeline } from "node:stream/promises";
const { stream, sendEvent } = workflow.createContext();
sendEvent(startEvent.with(""));
const result = await pipeline(
stream,
async function (source) {
for await (const event of source) {
if (stopEvent.include(event)) {
return "stop received!";
}
}
}
);
console.log(result); // 输出 "stop received!"
3. 应用案例和最佳实践
并行处理
流体工作流支持简单的扇出(fan-out)工具,以并行运行多个工作流。以下是一个示例:
import { until } from "@llama-flow/core/stream/until";
import { collect } from "@llama-flow/core/stream/consumer";
let condition = false;
workflow.handle([startEvent], async (start) => {
const { sendEvent, stream } = getContext();
for (let i = 0; i < 10; i++) {
sendEvent(convertEvent.with(i));
}
// 定义停止工作流的条件
const results = await collect(filter(until(stream, () => condition), (ev) => convertStopEvent.includes(ev)));
console.log(results.length); // 输出 10
return stopEvent.with();
});
workflow.handle([convertEvent], (convert) => {
if (convert.data === 9) {
condition = true;
}
return convertStopEvent.with(/* ... */);
});
集成到服务器端
流体工作流可以作为中间件集成到任何服务器框架中,如express、hono、fastify等。以下是一个使用Hono框架的示例:
import { Hono } from "hono";
import { serve } from "@hono/node-server";
import { createHonoHandler } from "@llama-flow/core/interrupter/hono";
import { agentWorkflow, startEvent, stopEvent } from "../workflows/tool-call-agent.js";
const app = new Hono();
app.post("/workflow", createHonoHandler(agentWorkflow, async (ctx) => {
startEvent(await ctx.req.text());
}, stopEvent));
serve(app, (port) => {
console.log(`Server started at http://localhost:${port}`);
});
4. 典型生态项目
目前,流体工作流(Fluere)的生态项目还比较有限,但是开发者可以根据自己的需求,结合流体工作流的特点,开发出更多符合实际应用场景的项目。社区也在持续增长中,期待更多开发者的加入和贡献。
登录后查看全文
热门项目推荐
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
Baichuan-M3-235BBaichuan-M3 是百川智能推出的新一代医疗增强型大型语言模型,是继 Baichuan-M2 之后的又一重要里程碑。Python00
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
项目优选
收起
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
539
3.77 K
Ascend Extension for PyTorch
Python
347
413
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
889
607
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
337
184
暂无简介
Dart
778
192
deepin linux kernel
C
27
11
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.34 K
758
React Native鸿蒙化仓库
JavaScript
303
356
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
986
252
仓颉编译器源码及 cjdb 调试工具。
C++
154
896