Windows10 Langchain-Chatchat 本地部署指南
2026-01-21 04:32:59作者:齐冠琰
本资源文件提供了在Windows 10系统上本地部署Langchain-Chatchat的详细步骤,包括常见问题解决和避坑指南。无论你是从零开始部署,还是遇到问题需要解决,本指南都能为你提供帮助。此外,本资源还附带了全部模型安装包,方便用户快速完成部署。
内容概述
-
环境要求
- 安装 Anaconda
- 安装 CUDA
- Python 3.8 - 3.11
-
安装流程
- 更新 Conda
- 创建虚拟环境
- 下载 Langchain-Chatchat 代码
- 下载 LLM 模型和 Embedding 模型
- 初始化数据库
- 运行 Web 页面
-
常见问题汇总
- 常见错误及解决方法
使用说明
-
更新 Conda
- 打开 Anaconda Powershell Prompt
- 执行
conda update conda - 测试是否安装成功:
conda list
-
创建虚拟环境
- 创建虚拟环境:
conda create -n Chatchat python==3.10 - 激活虚拟环境:
conda activate Chatchat
- 创建虚拟环境:
-
下载 Langchain-Chatchat
- 创建目录:
md C:\Chatchat - 进入目录:
cd C:\Chatchat - 下载代码:
git clone https://github.com/chatchat-space/Langchain-Chatchat
- 创建目录:
-
下载模型
- 下载 ChatGLM2-6B 和 m3e-base 模型
- 修改配置文件
- 下载依赖:
pip install -r requirements.txt
-
初始化数据库
- 执行
python init_database.py --recreate-vs
- 执行
-
运行 Web 页面
- 执行
python init_database.py -a
- 执行
常见问题
-
ModuleNotFoundError: No module named 'pwd'
- 解决方法:参考文章中的解决方法
-
OSError: Unable to load vocabulary from file
- 解决方法:参考文章中的解决方法
-
AttributeError: 'ChatGLMTokenizer' object has no attribute 'tokenizer'
- 解决方法:参考文章中的解决方法
-
AssertionError: Torch not compiled with CUDA enabled
- 解决方法:确保 CUDA 和 PyTorch 版本对应
注意事项
- 确保 CUDA 和 PyTorch 版本对应,否则可能会报错。
- 在修改配置文件时,路径不要包含中文,否则可能会导致运行报错。
通过本指南,你可以顺利完成 Langchain-Chatchat 的本地部署,并解决可能遇到的各种问题。祝你部署顺利!
登录后查看全文
热门项目推荐
相关项目推荐
暂无数据
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
540
3.77 K
Ascend Extension for PyTorch
Python
351
417
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
889
614
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
338
185
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
988
253
openGauss kernel ~ openGauss is an open source relational database management system
C++
169
233
暂无简介
Dart
778
193
华为昇腾面向大规模分布式训练的多模态大模型套件,支撑多模态生成、多模态理解。
Python
115
141
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.35 K
758