Refly AI:开源AI创作引擎的技术解析与实践指南
30秒项目定位
Refly AI是一个开源的AI原生创作引擎,它通过直观的自由形式画布界面,整合了多线程对话、多模态输入处理、RAG检索、浏览器扩展网摘工具、上下文记忆系统、AI文档编辑和代码工件生成等核心能力,帮助用户将创意无缝转化为生产级内容。
一、核心价值解析
1.1 创作范式革新:从线性到网状思维
Refly AI打破了传统创作工具的线性局限,提供了一个自由形式的画布界面,让用户能够以非线性方式组织和连接思想。这种网状思维模式特别适合复杂创意项目的构建,如多章节文档创作、跨学科研究整合或复杂工作流设计。
上图展示了Refly AI的工作流创建界面,用户可以直接在对话框中描述复杂的工作流需求,系统会自动生成相应的实现方案。
1.2 核心能力矩阵:全方位AI创作支持
| 能力类别 | 关键特性 | 应用场景 |
|---|---|---|
| 多模态内容处理 | 支持PDF/DOCX/RTF/TXT/MD/HTML/EPUB等7+文档格式,以及PNG/JPG等主流图像格式 | 学术论文分析、产品说明书整合、设计素材管理 |
| 智能工作流引擎 | 多线程对话管理、条件分支执行、定时任务调度 | 自动化内容生成流水线、智能客服系统、数据分析报告自动化 |
| 知识管理系统 | RAG检索架构、多源异构数据导入、语义关联 | 企业知识库构建、个人学习笔记管理、研究资料整合 |
| 代码工件生成 | HTML/SVG/Mermaid/React应用程序生成 | 快速原型开发、数据可视化、交互式演示系统 |
| 跨平台集成 | Slack/Microsoft Teams等平台输出 | 工作流自动化、团队协作增强、信息同步 |
上图展示了Refly AI与主流开发工具和协作平台的集成能力,包括LangChain、AutoGen、Slack等。
1.3 开放生态系统:可扩展的AI创作平台
Refly AI采用模块化设计,允许开发者通过插件扩展其功能。项目提供了完整的插件开发框架和API文档,使社区能够贡献新的AI技能、数据处理工具和集成适配器。
[!TIP] 扩展开发入门 查看packages/agent-tools/目录下的示例,了解如何开发自定义AI工具。基础工具开发可参考
src/builtin/目录中的实现。
二、技术架构探秘
2.1 系统架构概览
Refly AI采用分层架构设计,主要包含以下核心层次:
- 表现层:基于React的Web界面和画布系统
- 应用层:工作流引擎、对话管理、内容编辑器
- 核心服务层:AI模型集成、RAG引擎、知识图谱
- 数据层:文档存储、向量数据库、用户配置
上图展示了Refly AI工作流的基本执行流程,核心节点可以分支执行多个并行任务。
2.2 关键技术解析
多线程对话系统
Refly AI的多线程对话系统允许用户同时管理多个独立的对话上下文,就像同时与多个专家进行讨论。这种架构基于事件驱动设计,每个对话线程拥有独立的状态管理和上下文记忆。
// 多线程对话创建示例 [src/modules/collab/]
const thread = await conversationService.createThread({
title: "产品设计讨论",
initialMessage: "我需要设计一个智能客服系统",
participants: [currentUser.id, assistantId]
});
应用场景:复杂问题分解处理、多方案并行评估、跨领域知识整合。
RAG增强的知识检索
Refly AI的检索增强生成系统能够将外部文档融入AI思考过程,实现更准确、更具深度的内容生成。系统采用混合检索策略,结合关键词匹配和语义相似度计算。
[!TIP] RAG优化技巧 对于技术文档,可以通过调整src/modules/rag/中的
similarityThreshold参数来平衡检索精度和召回率。
工作流引擎
工作流引擎是Refly AI的核心组件,采用基于有向图的执行模型,支持条件分支、循环和并行执行。每个工作流节点可以是AI任务、数据处理步骤或外部系统调用。
常见问题速解:
- Q: 工作流执行失败如何调试?
- A: 查看
run-history/目录下的执行日志,或使用src/utils/debug.ts中的调试工具。
2.3 源码组织结构
Refly AI采用Monorepo项目结构,主要代码组织如下:
- apps/api/:后端API服务
- apps/web/:前端Web应用
- packages/:共享库和工具包
- agent-tools/:AI工具集成
- canvas-common/:画布核心功能
- providers/:AI模型提供商集成
[!TIP] 代码导航建议 从apps/api/src/app.module.ts开始了解后端整体结构,从apps/web/src/App.tsx了解前端应用入口。
三、场景化部署指南
3.1 环境准备与系统要求
在开始部署Refly AI前,请确保您的环境满足以下要求:
- 最低配置:2核CPU,4GB内存,20GB磁盘空间
- 推荐配置:4核CPU,8GB内存,SSD存储
- 操作系统:Linux/macOS(Windows需使用WSL2)
- 依赖软件:Docker、Node.js 18+、pnpm
⚠️注意:生产环境需要额外考虑数据库性能和AI模型访问速度,建议配置16GB以上内存。
3.2 部署方案对比
| 部署方式 | 适用场景 | 部署复杂度 | 维护成本 |
|---|---|---|---|
| 本地开发环境 | 功能开发、自定义扩展 | 中等 | 低 |
| Docker容器部署 | 小团队使用、演示环境 | 低 | 中 |
| 生产集群部署 | 企业级应用、高并发场景 | 高 | 高 |
3.3 本地开发环境搭建
# 克隆代码仓库
git clone https://gitcode.com/GitHub_Trending/re/refly
cd refly
# 安装依赖
pnpm install
# 配置环境变量
cp apps/api/.env.example apps/api/.env
# 编辑.env文件,配置必要的API密钥和服务地址
# 启动开发服务器
pnpm dev
[!TIP] 开发效率提升 使用
pnpm dev:api和pnpm dev:web分别启动后端和前端开发服务,支持热重载。
3.4 生产环境部署(Docker方式)
# 进入部署目录
cd deploy/docker
# 配置环境变量
cp env.example .env
# 编辑.env文件,设置生产环境参数
# 启动服务
docker compose up -d
# 监控服务状态
docker compose ps
常见问题速解:
-
Q: 服务启动后无法访问?
-
A: 检查
docker compose logs查看错误信息,确认端口是否被占用,环境变量是否正确配置。 -
Q: 如何更新到最新版本?
-
A: 执行
git pull拉取最新代码,然后docker compose down和docker compose up -d --build重新构建启动。
扩展学习路径
-
核心概念深入:
- 工作流引擎原理:docs/zh/guide/workflow.md
- RAG检索系统:src/modules/rag/
-
开发实践:
- 自定义AI工具开发:packages/agent-tools/src/builtin/
- 工作流节点扩展:src/modules/workflow/
-
高级应用:
- 企业知识库集成:src/modules/knowledge/
- 多模型协作策略:src/modules/provider/
Refly AI作为开源项目,欢迎社区贡献代码、文档和使用案例。通过参与项目开发,您不仅可以提升AI应用开发技能,还能为构建更强大的AI创作工具生态系统贡献力量。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
FreeSql功能强大的对象关系映射(O/RM)组件,支持 .NET Core 2.1+、.NET Framework 4.0+、Xamarin 以及 AOT。C#00


