30分钟搞定Langchain-Chatchat源码部署:从环境配置到WebUI启动全流程
你是否还在为本地知识库问答系统的部署而烦恼?是否尝试过多种方案却始终无法顺利跑通?本文将带你一步到位完成Langchain-Chatchat的源码安装与开发环境配置,让你在30分钟内拥有属于自己的本地智能问答系统。读完本文后,你将掌握:
- 开发环境的标准化配置方法
- 项目依赖的高效管理技巧
- 模型服务的快速部署流程
- 知识库的初始化与优化策略
- WebUI界面的启动与验证步骤
项目概述
Langchain-Chatchat(原Langchain-ChatGLM)是一个基于Langchain与ChatGLM等语言模型实现的本地知识库问答系统。该项目支持开源模型的离线部署,提供了灵活的API接口和友好的WebUI界面,适用于企业和个人构建私有的智能问答应用。
项目采用模块化设计,核心功能包括LLM对话、知识库管理、Agent工具调用等。其实现原理如下:
从文档处理角度来看,系统实现流程如下:
官方文档:README.md 开发指南:docs/contributing/README_dev.md
开发环境准备
硬件与系统要求
本项目支持在Python 3.8-3.11环境中运行,已在Windows、macOS和Linux系统上进行测试。硬件方面,推荐使用GPU以获得更好的性能,但也支持CPU运行。
代码获取
首先,克隆项目代码库到本地:
git clone https://gitcode.com/GitHub_Trending/la/Langchain-Chatchat
cd Langchain-Chatchat
Python环境管理
项目使用Poetry进行依赖管理,先安装Poetry:
# 使用pip安装Poetry
pip install poetry
# 配置Poetry使用当前激活的Python环境
poetry config virtualenvs.prefer-active-python true
进入服务器模块目录并安装依赖:
cd libs/chatchat-server/
poetry install --with lint,test -E xinference
如果你偏好使用pip进行开发模式安装,可执行:
pip install -e .
依赖管理配置文件:libs/chatchat-server/pyproject.toml
项目配置
初始化配置文件
执行以下命令初始化项目配置文件和数据目录:
cd libs/chatchat-server
python chatchat/cli.py init
该命令会创建必要的数据目录、复制示例知识库内容并生成默认的yaml配置文件。
配置模型服务
项目支持多种模型部署框架,如Xinference、Ollama、FastChat等。这里以Xinference为例,首先安装Xinference:
pip install "langchain-chatchat[xinference]" -U
启动Xinference服务:
xinference -H 0.0.0.0
然后修改配置文件model_settings.yaml,设置默认模型:
# 默认选用的LLM名称
DEFAULT_LLM_MODEL: qwen1.5-chat
# 默认选用的Embedding名称
DEFAULT_EMBEDDING_MODEL: bge-large-zh-v1.5
# 模型平台配置
MODEL_PLATFORMS:
xinference:
enable: true
base_url: http://localhost:9997
配置文件路径:libs/chatchat-server/chatchat/configs/model_settings.yaml
知识库初始化
在启动服务前,需要初始化知识库。确保已启动模型服务,然后执行:
cd libs/chatchat-server
python chatchat/cli.py kb --recreate-vs
成功执行后,会显示类似以下的日志:
----------------------------------------------------------------------------------------------------
知识库名称 :samples
知识库类型 :faiss
向量模型: :bge-large-zh-v1.5
知识库路径 :/path/to/chatchat_data/knowledge_base/samples
文件总数量 :47
入库文件数 :42
知识条目数 :740
用时 :0:02:29.701002
----------------------------------------------------------------------------------------------------
总计用时 :0:02:33.414425
知识库配置文件:libs/chatchat-server/chatchat/configs/kb_settings.yaml
启动服务
执行以下命令启动所有服务(API和WebUI):
cd libs/chatchat-server
python chatchat/cli.py start -a
启动成功后,浏览器访问 http://localhost:8501 即可打开WebUI界面:
服务启动脚本:tools/autodl_start_script/start_chatchat.sh
常见问题解决
端口占用问题
如果启动时遇到端口占用错误,可修改配置文件中的端口设置:
# 在basic_settings.yaml中修改
DEFAULT_BIND_HOST: 0.0.0.0
DEFAULT_API_PORT: 7861
DEFAULT_WEBUI_PORT: 8502
模型加载失败
确保模型推理框架已正确启动并加载模型,可通过模型管理界面检查:
cd tools/model_loaders
streamlit run xinference_manager.py
模型管理工具:tools/model_loaders/xinference_manager.py
知识库处理卡住
Windows环境下可能遇到此问题,解决方法:
pip uninstall python-magic-bin
pip install python-magic-bin==0.4.14
总结与下一步
恭喜你成功搭建了Langchain-Chatchat的开发环境!接下来你可以:
- 探索WebUI中的各项功能,体验知识库问答
- 尝试添加自定义知识库,测试系统性能
- 开发新的功能或集成其他模型
- 参与项目贡献,提交PR
项目贡献指南:docs/contributing/code.md API文档:docs/contributing/api.md
如果你在使用过程中遇到问题,欢迎加入项目交流群:
也可以关注官方公众号获取最新动态:
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00





