企业级LLM应用开发平台:Bisheng毕昇技术解析与实践指南
在数字化转型加速的今天,LLM应用开发已成为企业提升效率的关键路径。Bisheng毕昇作为开源企业级AI平台,以可视化工作流为核心,提供从文档解析到多智能体协作的完整解决方案,帮助技术团队快速构建专业级LLM应用。本文将系统介绍如何利用这一平台实现低代码LLM开发,以及其在企业级场景中的核心价值。
如何快速部署企业级LLM开发环境?
环境准备与一键部署
企业级LLM应用对硬件资源有一定要求,推荐配置为CPU 16核、内存64GB,最低需满足CPU 8核、内存32GB。部署前需确保已安装Docker 19.03.9+和Docker Compose 1.25.1+。
通过以下命令可完成一键部署:
git clone https://gitcode.com/GitHub_Trending/bi/bisheng
cd bisheng/docker
docker compose -f docker-compose.yml -p bisheng up -d
启动后访问 http://IP:3001 即可开始使用,系统默认将第一个注册用户设为管理员,简化初始配置流程。
低代码LLM开发:如何通过可视化工作流构建应用?
工作流引擎核心架构
Bisheng的可视化工作流编辑器支持拖拽式操作,可实现成环、并行、跑批、判断逻辑等复杂流程设计。其核心处理逻辑位于src/backend/bisheng/workflow/common/workflow.py,主要包含工作流管理与执行两大功能模块:
def get_all_flows(cls, user: UserPayload, name: str, status: int, tag_id: Optional[int],
flow_type: Optional[int], page: int = 1, page_size: int = 10) -> (list[dict], int):
# 获取工作流列表,支持多条件筛选和分页
pass
def run_once(cls, login_user: UserPayload, node_input: Dict[str, any], node_data: Dict[any, any]):
# 单次运行工作流,处理输入数据并返回执行结果
pass
工作流创建实践步骤
- 登录系统后,从左侧导航栏进入"工作流"模块
- 点击"新建工作流"按钮,创建空白流程画布
- 从组件库中选择所需节点(如文件上传、文档解析、LLM调用等)
- 拖拽节点至画布并配置参数,通过连接线定义执行顺序
- 保存并发布工作流,支持版本管理与权限控制
图:Bisheng工作流执行流程示意图,展示了用户、第三方服务与后端系统的交互逻辑
企业级知识库管理:如何实现文档智能解析与向量存储?
多格式文档解析能力
Bisheng支持PDF、DOCX、PPTX、Excel等多种格式文档上传,通过智能解析技术提取文本、表格、图片等内容。核心解析逻辑位于src/backend/bisheng/api/services/knowledge_imp.py:
def process_file_task(
knowledge: Knowledge,
db_files: List[KnowledgeFile],
separator: List[str],
chunk_size: int,
chunk_overlap: int,
retain_images: int = 1,
enable_formula: int = 1,
force_ocr: int = 0
):
# 处理上传文件,实现文本提取、切分与向量化
pass
知识库创建与管理流程
- 进入"知识库"模块,点击"新建知识库"
- 填写名称和描述,选择知识库类型
- 上传文档或输入URL,配置解析参数:
- 文本分隔符(如"。"、"!"、"?")
- 块大小(chunk_size)与重叠度(chunk_overlap)
- 图片保留与公式识别选项
- 启动处理任务,系统自动完成文本提取、向量化与存储
图:Bisheng文档解析功能演示,展示了PDF内容的智能提取与结构化处理过程
API集成指南:如何与现有系统无缝对接?
RESTful API架构概览
Bisheng提供完整的API体系,涵盖用户认证、工作流管理、知识库操作等核心功能。API路由定义位于src/backend/bisheng/api/router.py,支持版本控制(V1/V2)。
核心API调用示例
创建知识库API:
# 请求示例
POST /api/v1/knowledge
{
"name": "企业规章制度",
"description": "公司内部管理文件集合",
"type": 1
}
# 响应示例
{
"code": 200,
"message": "SUCCESS",
"data": {
"id": 1,
"name": "企业规章制度",
"create_time": "2025-10-16T09:23:45Z"
}
}
文件上传API:
POST /api/v1/knowledge/{knowledge_id}/file
Content-Type: multipart/form-data
file: [二进制文件流]
separator: ["。", "!", "?"]
chunk_size: 500
chunk_overlap: 50
企业级权限控制:如何保障系统安全与合规?
RBAC权限模型实现
Bisheng采用基于角色的访问控制(RBAC)模型,实现细粒度权限管理。权限验证逻辑位于src/backend/bisheng/api/utils.py:
def check_permissions(Authorize: AuthJWT, roles: List[str]):
# JWT认证与角色权限验证
Authorize.jwt_required()
user_roles = Authorize.get_raw_jwt().get("roles", [])
if not any(role in user_roles for role in roles):
raise HTTPException(status_code=403, detail="权限不足")
安全审计与合规特性
系统内置完整操作审计日志,记录用户关键行为,确保合规性与可追溯性。审计功能实现于src/backend/bisheng/database/models/audit_log.py,支持登录日志、操作日志的查询与导出。
典型应用场景:如何解决企业实际业务问题?
合同审核自动化
- 创建"合同审核"工作流
- 添加"文件上传"节点接收合同文档
- 配置"文档解析"节点提取合同内容
- 使用"合同要素提取"节点识别关键信息(如金额、有效期、双方信息)
- 添加"合规检查"节点验证条款合法性
- 通过"结果输出"节点生成审核报告
会议纪要智能生成
- 上传会议录音/视频文件
- 使用"语音转文字"节点生成文本记录
- 通过"摘要提取"节点生成会议要点
- 配置"行动项识别"节点提取待办事项
- 最后通过"报告生成"节点输出格式化纪要
学习资源与下一步
- 官方文档:README_CN.md
- 核心源码:src/backend/bisheng/
- 进阶指南:src/backend/bisheng/workflow/
通过Bisheng平台,企业可以快速构建符合自身需求的LLM应用,而无需深入底层技术细节。无论是知识库管理、工作流自动化还是智能文档处理,Bisheng都提供了开箱即用的解决方案,帮助技术团队将AI能力快速融入业务流程。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00