30分钟搞定Langchain-Chatchat源码部署:从环境配置到WebUI启动全流程
你是否还在为本地知识库问答系统的部署而烦恼?是否尝试过多种方案却始终无法顺利跑通?本文将带你一步到位完成Langchain-Chatchat的源码安装与开发环境配置,让你在30分钟内拥有属于自己的本地智能问答系统。读完本文后,你将掌握:
- 开发环境的标准化配置方法
- 项目依赖的高效管理技巧
- 模型服务的快速部署流程
- 知识库的初始化与优化策略
- WebUI界面的启动与验证步骤
项目概述
Langchain-Chatchat(原Langchain-ChatGLM)是一个基于Langchain与ChatGLM等语言模型实现的本地知识库问答系统。该项目支持开源模型的离线部署,提供了灵活的API接口和友好的WebUI界面,适用于企业和个人构建私有的智能问答应用。
项目采用模块化设计,核心功能包括LLM对话、知识库管理、Agent工具调用等。其实现原理如下:
从文档处理角度来看,系统实现流程如下:
官方文档:README.md 开发指南:docs/contributing/README_dev.md
开发环境准备
硬件与系统要求
本项目支持在Python 3.8-3.11环境中运行,已在Windows、macOS和Linux系统上进行测试。硬件方面,推荐使用GPU以获得更好的性能,但也支持CPU运行。
代码获取
首先,克隆项目代码库到本地:
git clone https://gitcode.com/GitHub_Trending/la/Langchain-Chatchat
cd Langchain-Chatchat
Python环境管理
项目使用Poetry进行依赖管理,先安装Poetry:
# 使用pip安装Poetry
pip install poetry
# 配置Poetry使用当前激活的Python环境
poetry config virtualenvs.prefer-active-python true
进入服务器模块目录并安装依赖:
cd libs/chatchat-server/
poetry install --with lint,test -E xinference
如果你偏好使用pip进行开发模式安装,可执行:
pip install -e .
依赖管理配置文件:libs/chatchat-server/pyproject.toml
项目配置
初始化配置文件
执行以下命令初始化项目配置文件和数据目录:
cd libs/chatchat-server
python chatchat/cli.py init
该命令会创建必要的数据目录、复制示例知识库内容并生成默认的yaml配置文件。
配置模型服务
项目支持多种模型部署框架,如Xinference、Ollama、FastChat等。这里以Xinference为例,首先安装Xinference:
pip install "langchain-chatchat[xinference]" -U
启动Xinference服务:
xinference -H 0.0.0.0
然后修改配置文件model_settings.yaml,设置默认模型:
# 默认选用的LLM名称
DEFAULT_LLM_MODEL: qwen1.5-chat
# 默认选用的Embedding名称
DEFAULT_EMBEDDING_MODEL: bge-large-zh-v1.5
# 模型平台配置
MODEL_PLATFORMS:
xinference:
enable: true
base_url: http://localhost:9997
配置文件路径:libs/chatchat-server/chatchat/configs/model_settings.yaml
知识库初始化
在启动服务前,需要初始化知识库。确保已启动模型服务,然后执行:
cd libs/chatchat-server
python chatchat/cli.py kb --recreate-vs
成功执行后,会显示类似以下的日志:
----------------------------------------------------------------------------------------------------
知识库名称 :samples
知识库类型 :faiss
向量模型: :bge-large-zh-v1.5
知识库路径 :/path/to/chatchat_data/knowledge_base/samples
文件总数量 :47
入库文件数 :42
知识条目数 :740
用时 :0:02:29.701002
----------------------------------------------------------------------------------------------------
总计用时 :0:02:33.414425
知识库配置文件:libs/chatchat-server/chatchat/configs/kb_settings.yaml
启动服务
执行以下命令启动所有服务(API和WebUI):
cd libs/chatchat-server
python chatchat/cli.py start -a
启动成功后,浏览器访问 http://localhost:8501 即可打开WebUI界面:
服务启动脚本:tools/autodl_start_script/start_chatchat.sh
常见问题解决
端口占用问题
如果启动时遇到端口占用错误,可修改配置文件中的端口设置:
# 在basic_settings.yaml中修改
DEFAULT_BIND_HOST: 0.0.0.0
DEFAULT_API_PORT: 7861
DEFAULT_WEBUI_PORT: 8502
模型加载失败
确保模型推理框架已正确启动并加载模型,可通过模型管理界面检查:
cd tools/model_loaders
streamlit run xinference_manager.py
模型管理工具:tools/model_loaders/xinference_manager.py
知识库处理卡住
Windows环境下可能遇到此问题,解决方法:
pip uninstall python-magic-bin
pip install python-magic-bin==0.4.14
总结与下一步
恭喜你成功搭建了Langchain-Chatchat的开发环境!接下来你可以:
- 探索WebUI中的各项功能,体验知识库问答
- 尝试添加自定义知识库,测试系统性能
- 开发新的功能或集成其他模型
- 参与项目贡献,提交PR
项目贡献指南:docs/contributing/code.md API文档:docs/contributing/api.md
如果你在使用过程中遇到问题,欢迎加入项目交流群:
也可以关注官方公众号获取最新动态:
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00





