Langchain-Chatchat项目中调用讯飞星火API与本地模型的技术方案
2025-05-04 09:08:03作者:郜逊炳
在Langchain-Chatchat项目中,开发者经常需要整合不同的AI模型服务来构建完整的对话系统。本文将详细介绍如何在该项目中同时使用讯飞星火API和本地模型的技术方案。
在线API与本地模型的区别
在线API如讯飞星火提供即用型的AI服务,开发者只需通过API密钥即可调用,无需关心模型部署细节。而本地模型则需要自行部署和管理,通常需要额外的工具支持。
讯飞星火API的集成
对于讯飞星火这类在线API,集成过程相对简单:
- 获取API密钥
- 在项目配置文件中填写API密钥
- 无需使用Xinference等本地部署工具
本地模型的部署方案
当需要使用本地模型(如Embedding模型)时,推荐采用以下方案:
- 使用Xinference工具将本地模型运行起来
- Xinference会提供一个兼容OpenAI API格式的本地端点
- 在配置文件中指定该本地端点的URL
混合部署方案
对于同时使用在线LLM和本地模型的场景:
- LLM部分:直接配置讯飞星火API密钥
- Embedding部分:通过Xinference部署本地模型
- 在配置文件中分别指定不同的模型来源
高级配置建议
对于自行搭建的VLLM服务器:
- 即使没有API密钥,也可以通过HTTP头部验证
- 在配置文件中需要明确指定验证头信息
- 确保服务器地址和端口配置正确
最佳实践
- 优先使用在线API简化部署流程
- 对性能敏感或数据隐私要求高的模块使用本地模型
- 通过OneAPI等工具统一管理不同来源的API调用
- 合理规划模型部署位置,平衡性能与成本
通过以上方案,开发者可以在Langchain-Chatchat项目中灵活地组合使用讯飞星火API和本地模型,构建出既强大又符合特定需求的对话系统。
登录后查看全文
热门项目推荐
相关项目推荐
暂无数据
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
540
3.77 K
Ascend Extension for PyTorch
Python
351
417
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
889
614
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
338
185
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
988
253
openGauss kernel ~ openGauss is an open source relational database management system
C++
169
233
暂无简介
Dart
778
193
华为昇腾面向大规模分布式训练的多模态大模型套件,支撑多模态生成、多模态理解。
Python
115
141
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.35 K
758