首页
/ Langchain-Chatchat项目中调用讯飞星火API与本地模型混合部署指南

Langchain-Chatchat项目中调用讯飞星火API与本地模型混合部署指南

2025-05-04 19:52:49作者:蔡丛锟

在Langchain-Chatchat项目中,开发者经常需要将在线大模型API与本地部署的模型结合使用。本文将详细介绍如何配置讯飞星火API与本地Embedding模型的混合部署方案。

在线API与本地模型的选择

项目中提供了两种主要的使用方式:

  1. 纯在线API调用:直接使用讯飞星火等在线大模型服务
  2. 混合部署:在线API(如讯飞星火)处理LLM任务,本地模型处理Embedding等任务

对于第一种情况,开发者只需在配置文件中填写相应的API密钥即可,无需额外部署本地服务。而第二种混合部署方案则需要借助Xinference等工具来管理本地模型。

Xinference工具的作用

Xinference是一个重要的本地模型管理工具,它能够:

  • 将本地运行的模型封装成OpenAI兼容的API服务
  • 提供统一的接口规范,简化项目集成
  • 支持多种模型格式和量化版本

当项目中需要同时使用在线API和本地模型时,Xinference可以很好地解决接口标准化问题。

具体配置方案

纯在线API配置

  1. 修改项目中的model setting配置文件
  2. 找到oneapi相关配置节
  3. 填入讯飞星火等服务的API密钥
  4. 指定对应的模型名称和版本

混合部署配置

  1. 使用Xinference部署本地Embedding模型
  2. 获取Xinference提供的本地API端点
  3. 在配置文件中分别设置:
    • LLM部分:配置在线API信息
    • Embedding部分:配置Xinference提供的本地API地址
  4. 确保网络连通性和端口访问权限

常见问题解决方案

对于自行搭建的VLLM服务器,虽然不需要API密钥,但可能有header验证要求。这种情况下,开发者需要:

  1. 在配置文件中添加自定义header设置
  2. 确保认证信息正确传递
  3. 测试接口连通性

最佳实践建议

  1. 对于生产环境,建议将本地模型服务容器化部署
  2. 在线API调用应添加合理的重试机制和降级方案
  3. 混合部署时注意模型之间的兼容性
  4. 性能敏感场景可考虑全本地化部署方案

通过合理配置,Langchain-Chatchat项目可以灵活地结合在线API的计算能力和本地模型的数据安全性,满足不同场景下的需求。

热门项目推荐
相关项目推荐