首页
/ 30分钟搞定Langchain-Chatchat源码部署:从环境配置到WebUI启动全流程

30分钟搞定Langchain-Chatchat源码部署:从环境配置到WebUI启动全流程

2026-02-05 05:35:57作者:宗隆裙

你是否还在为本地知识库问答系统的部署而烦恼?是否尝试过多种方案却始终无法顺利跑通?本文将带你一步到位完成Langchain-Chatchat的源码安装与开发环境配置,让你在30分钟内拥有属于自己的本地智能问答系统。读完本文后,你将掌握:

  • 开发环境的标准化配置方法
  • 项目依赖的高效管理技巧
  • 模型服务的快速部署流程
  • 知识库的初始化与优化策略
  • WebUI界面的启动与验证步骤

项目概述

Langchain-Chatchat(原Langchain-ChatGLM)是一个基于Langchain与ChatGLM等语言模型实现的本地知识库问答系统。该项目支持开源模型的离线部署,提供了灵活的API接口和友好的WebUI界面,适用于企业和个人构建私有的智能问答应用。

Langchain-Chatchat系统界面

项目采用模块化设计,核心功能包括LLM对话、知识库管理、Agent工具调用等。其实现原理如下:

系统实现原理图

从文档处理角度来看,系统实现流程如下:

文档处理流程图

官方文档:README.md 开发指南:docs/contributing/README_dev.md

开发环境准备

硬件与系统要求

本项目支持在Python 3.8-3.11环境中运行,已在Windows、macOS和Linux系统上进行测试。硬件方面,推荐使用GPU以获得更好的性能,但也支持CPU运行。

代码获取

首先,克隆项目代码库到本地:

git clone https://gitcode.com/GitHub_Trending/la/Langchain-Chatchat
cd Langchain-Chatchat

Python环境管理

项目使用Poetry进行依赖管理,先安装Poetry:

# 使用pip安装Poetry
pip install poetry
# 配置Poetry使用当前激活的Python环境
poetry config virtualenvs.prefer-active-python true

进入服务器模块目录并安装依赖:

cd libs/chatchat-server/
poetry install --with lint,test -E xinference

如果你偏好使用pip进行开发模式安装,可执行:

pip install -e .

依赖管理配置文件:libs/chatchat-server/pyproject.toml

项目配置

初始化配置文件

执行以下命令初始化项目配置文件和数据目录:

cd libs/chatchat-server
python chatchat/cli.py init

该命令会创建必要的数据目录、复制示例知识库内容并生成默认的yaml配置文件。

配置模型服务

项目支持多种模型部署框架,如Xinference、Ollama、FastChat等。这里以Xinference为例,首先安装Xinference:

pip install "langchain-chatchat[xinference]" -U

启动Xinference服务:

xinference -H 0.0.0.0

然后修改配置文件model_settings.yaml,设置默认模型:

# 默认选用的LLM名称
DEFAULT_LLM_MODEL: qwen1.5-chat

# 默认选用的Embedding名称
DEFAULT_EMBEDDING_MODEL: bge-large-zh-v1.5

# 模型平台配置
MODEL_PLATFORMS:
  xinference:
    enable: true
    base_url: http://localhost:9997

配置文件路径:libs/chatchat-server/chatchat/configs/model_settings.yaml

知识库初始化

在启动服务前,需要初始化知识库。确保已启动模型服务,然后执行:

cd libs/chatchat-server
python chatchat/cli.py kb --recreate-vs

成功执行后,会显示类似以下的日志:

----------------------------------------------------------------------------------------------------
知识库名称      :samples
知识库类型      :faiss
向量模型:      :bge-large-zh-v1.5
知识库路径      :/path/to/chatchat_data/knowledge_base/samples
文件总数量      :47
入库文件数      :42
知识条目数      :740
用时            :0:02:29.701002
----------------------------------------------------------------------------------------------------

总计用时        :0:02:33.414425

知识库配置文件:libs/chatchat-server/chatchat/configs/kb_settings.yaml

启动服务

执行以下命令启动所有服务(API和WebUI):

cd libs/chatchat-server
python chatchat/cli.py start -a

启动成功后,浏览器访问 http://localhost:8501 即可打开WebUI界面:

WebUI界面

服务启动脚本:tools/autodl_start_script/start_chatchat.sh

常见问题解决

端口占用问题

如果启动时遇到端口占用错误,可修改配置文件中的端口设置:

# 在basic_settings.yaml中修改
DEFAULT_BIND_HOST: 0.0.0.0
DEFAULT_API_PORT: 7861
DEFAULT_WEBUI_PORT: 8502

模型加载失败

确保模型推理框架已正确启动并加载模型,可通过模型管理界面检查:

cd tools/model_loaders
streamlit run xinference_manager.py

模型管理工具:tools/model_loaders/xinference_manager.py

知识库处理卡住

Windows环境下可能遇到此问题,解决方法:

pip uninstall python-magic-bin
pip install python-magic-bin==0.4.14

总结与下一步

恭喜你成功搭建了Langchain-Chatchat的开发环境!接下来你可以:

  1. 探索WebUI中的各项功能,体验知识库问答
  2. 尝试添加自定义知识库,测试系统性能
  3. 开发新的功能或集成其他模型
  4. 参与项目贡献,提交PR

项目贡献指南:docs/contributing/code.md API文档:docs/contributing/api.md

如果你在使用过程中遇到问题,欢迎加入项目交流群:

项目交流群

也可以关注官方公众号获取最新动态:

官方公众号

登录后查看全文
热门项目推荐
相关项目推荐