首页
/ Langchain-Chatchat项目部署中"An error occurred during streaming"问题分析与解决方案

Langchain-Chatchat项目部署中"An error occurred during streaming"问题分析与解决方案

2025-05-04 23:29:08作者:龚格成

问题背景

在Langchain-Chatchat项目部署过程中,许多用户在使用本地模型(如ChatGLM3-6B、GLM-4v-9B等)进行问答时,会遇到"An error occurred during streaming"的错误提示。这个问题主要出现在模型推理阶段,导致无法正常获取模型输出。

错误现象

当用户在Web界面输入问题后,系统会返回错误信息"An error occurred during streaming"。从日志中可以观察到更详细的错误信息,主要包括:

  1. 模型加载阶段的警告信息:"Both max_new_tokens and max_length seem to have been set"
  2. 关键错误:"GenerationMixin._get_logits_warper() missing 1 required positional argument: 'device'"
  3. 部分情况下还会出现httpx包版本不兼容的问题

根本原因分析

经过技术分析,这个问题主要由以下几个因素导致:

  1. transformers版本兼容性问题:新版本的transformers库(如4.42.4)与某些本地模型存在兼容性问题,特别是ChatGLM系列模型。

  2. Xinference框架限制:Xinference在加载某些特定架构的模型时,对设备参数的处理存在缺陷。

  3. 依赖包版本冲突:特别是httpx包的版本过高(0.28以上)会导致代理参数不被支持。

  4. 模型引擎选择不当:某些模型更适合使用vllm引擎而非默认的transformers引擎。

解决方案

针对上述问题根源,我们提供以下几种解决方案:

方案一:降低transformers版本

对于使用ChatGLM系列模型的用户,建议将transformers降级到4.41.2版本:

pip install transformers==4.41.2

方案二:更换模型引擎

对于Qwen系列模型,使用vllm引擎可以获得更好的兼容性:

xinference launch --model-engine vllm --model-name qwen-chat --size-in-billions 7 --model-format pytorch --quantization none

方案三:调整httpx版本

如果错误与代理参数相关,可以降级httpx包:

pip install httpx==0.27.2

方案四:使用兼容性更好的模型

实践证明,Qwen系列模型(如qwen2.5-instruct)配合较新的transformers版本(4.48.0)表现稳定:

pip install transformers==4.48.0

最佳实践建议

  1. 模型选择:优先考虑Qwen系列模型,它们在不同环境下的兼容性更好。

  2. 环境隔离:使用conda或venv创建独立Python环境,避免依赖冲突。

  3. 版本控制:严格按照项目推荐的依赖版本进行安装。

  4. 日志分析:遇到问题时,首先检查完整日志,定位具体错误点。

  5. 分步测试:先确保模型能在Xinference中单独运行,再集成到Langchain-Chatchat中。

技术原理深入

这个问题的本质在于深度学习模型推理过程中的设备管理机制。当transformers库进行版本升级时,其内部API可能会发生变化,特别是与设备管理相关的接口。ChatGLM等模型在实现时可能依赖了特定版本的设备管理逻辑,导致在新版本中出现参数缺失的错误。

vllm引擎之所以表现更好,是因为它实现了自己的设备管理和内存分配机制,减少了对transformers内部API的依赖。这也是为什么在使用vllm引擎时问题较少出现的原因。

总结

"An error occurred during streaming"是Langchain-Chatchat项目部署中的常见问题,主要与模型兼容性和依赖版本相关。通过选择合适的模型、调整依赖版本和使用适当的模型引擎,可以有效解决这一问题。建议用户根据自身硬件条件和模型需求,选择最适合的解决方案组合。

登录后查看全文
热门项目推荐