首页
/ 3分钟搞定Langchain-Chatchat源码启动:从0到1部署指南

3分钟搞定Langchain-Chatchat源码启动:从0到1部署指南

2026-02-04 04:18:49作者:蔡怀权

你还在为本地知识库问答系统的部署配置烦恼吗?服务器环境不兼容、依赖包冲突、模型加载失败?本文将通过3个核心步骤,手把手教你完成Langchain-Chatchat(原Langchain-ChatGLM)的源码部署,让你快速拥有私有化的AI问答能力。读完本文你将掌握:环境准备技巧、配置文件优化、一键启动脚本使用,以及常见问题排查方法。

项目简介

Langchain-Chatchat是基于Langchain与开源大语言模型(如ChatGLM、Qwen等)构建的本地知识库问答系统。通过将文档内容向量化存储,实现基于私有数据的精准问答,支持本地部署且完全开源。

项目架构

核心功能包括:

  • 支持GPTQ、vLLM等多种加速推理引擎
  • 兼容Xinference、Ollama等主流模型部署框架
  • 提供File RAG、数据库对话等多模态交互能力
  • 内置可视化WebUI管理界面

环境准备

软硬件要求

环境项 推荐配置 最低配置
Python 3.10-3.11 3.8+
操作系统 Ubuntu 22.04 Windows 10/macOS 12+
内存 16GB 8GB
显卡 NVIDIA RTX 3090 NVIDIA GTX 1660 (仅CPU模式可无显卡)

基础依赖安装

# 创建虚拟环境
conda create -n chatchat python=3.10 -y
conda activate chatchat

# 安装核心依赖
pip install langchain-chatchat[xinference] -U -i https://pypi.tuna.tsinghua.edu.cn/simple

官方安装文档:README.md
开发环境配置:开发指南

源码部署步骤

1. 获取项目源码

git clone https://gitcode.com/GitHub_Trending/la/Langchain-Chatchat.git
cd Langchain-Chatchat

2. 模型部署框架准备

推荐使用Xinference作为模型部署框架,支持多模型并行加载:

# 启动Xinference服务
xinference -H 0.0.0.0 --port 9997

通过WebUI配置本地模型路径:

streamlit run tools/model_loaders/xinference_manager.py

模型管理界面

3. 初始化配置文件

# 设置数据存储根目录
export CHATCHAT_ROOT=/data/chatchat

# 生成配置文件
chatchat init

关键配置文件说明:

  • 模型配置:设置DEFAULT_LLM_MODEL和embedding模型
  • 基础配置:修改知识库存储路径KB_ROOT_PATH
  • 向量库配置:切换FAISS/Chroma等向量数据库

4. 知识库初始化

# 重建知识库索引
chatchat kb -r

成功日志示例:

----------------------------------------------------------------------------------------------------
知识库名称      :samples
向量模型:      :bge-large-zh-v1.5
知识条目数      :740
用时            :0:02:29.701002
----------------------------------------------------------------------------------------------------

知识库初始化

启动服务

一键启动脚本

使用官方提供的启动脚本:

# 后台启动服务
bash tools/autodl_start_script/start_chatchat.sh

脚本会自动处理:

  • 环境变量注入
  • 日志重定向
  • 服务进程守护

验证服务状态

检查端口占用:

ss -anptl | grep -E '(8501|9997)'

成功启动后访问WebUI:http://localhost:8501

WebUI界面

常见问题解决

启动失败排查流程

  1. 检查模型服务状态:确保Xinference已加载LLM和embedding模型
  2. 查看应用日志:tail -f chatchat-output.log
  3. 配置文件验证:使用chatchat check-config命令检测格式错误

典型问题解决

Q: Windows环境下知识库重建卡住?
A: 卸载python-magic-bin并重新安装指定版本:

pip uninstall python-magic-bin
pip install 'python-magic-bin==0.4.14'

Q: 如何修改默认监听地址?
A: 编辑basic_settings.yaml:

DEFAULT_BIND_HOST: 0.0.0.0  # 允许外部访问

进阶配置

Docker部署方案

对于生产环境推荐使用Docker Compose:

# docker-compose.yaml片段
services:
  chatchat:
    image: chatimage/chatchat:0.3.1.3
    volumes:
      - ./data:/usr/local/lib/python3.11/site-packages/chatchat/data
    ports:
      - "8501:8501"

详细部署指南:Docker部署文档

性能优化建议

  • 使用vLLM加速推理:修改模型配置中的engine参数为"vllm"
  • 启用Reranker:在kb_settings.yaml中配置rerank_model
  • 数据库优化:将SQLite迁移至PostgreSQL提升并发性能

总结

通过本文介绍的步骤,你已成功部署Langchain-Chatchat开源项目。该系统不仅可作为本地知识库使用,还可通过Agent配置扩展多工具能力。建议后续关注:

  • 模型量化方案:使用GPTQ/4-bit量化减少显存占用
  • 多模态支持:集成qwen-vl等模型实现图片理解
  • 插件开发:通过插件系统扩展功能

如有部署问题,可加入官方交流群获取支持:

交流群二维码

项目源码:GitHub_Trending/la/Langchain-Chatchat
官方文档:docs/
社区教程:markdown_docs/startup.md

登录后查看全文
热门项目推荐
相关项目推荐