Langchain-Chatchat项目中GLM-4-9B-Chat模型适配问题解决方案
问题背景
在Langchain-Chatchat项目中,用户尝试运行GLM-4-9B-Chat模型时遇到了输出结果持续自问自答无法停止的问题。经过社区多位开发者的深入分析和实践,发现这是由于FastChat框架尚未完全兼容GLM-4系列模型导致的。
问题根源分析
GLM-4系列模型采用了与之前ChatGLM系列不同的对话格式和提示词模板。当FastChat框架处理GLM-4模型时,主要存在以下几个问题:
-
模型类型识别错误:FastChat通过模型路径中的"chatglm"关键字来判断模型类型,导致错误地应用了ChatGLM3的对话处理逻辑。
-
提示词模板不匹配:GLM-4使用了新的对话格式,而FastChat仍沿用ChatGLM3的模板格式,导致模型无法正确理解输入。
-
特殊token处理不当:GLM-4输出中包含的特殊token未被正确处理,导致生成结果异常。
解决方案
方案一:修改模型路径命名
最简单的解决方案是修改模型文件夹名称,避免包含"chatglm"字样:
"llm_model": {
"glm-4-9b-chat": "/path/to/glm-4-9b-chat/",
}
这种方法可以防止FastChat错误地应用ChatGLM3的处理逻辑,但可能无法完全解决所有兼容性问题。
方案二:深度适配修改
更完整的解决方案需要对FastChat框架进行多处修改:
- 修改model_chatglm.py:
elif "glm-4" in model_type:
message_list = recover_message_list(prompt)
inputs = tokenizer.apply_chat_template(
message_list, tokenize=True, return_tensors="pt",
return_dict=True, add_generation_prompt=True
).to(model.device)
- 修改model_adapter.py:
if "chatglm3" or 'glm-4' in model_path.lower():
tokenizer = AutoTokenizer.from_pretrained(
model_path,
encode_special_tokens=True,
trust_remote_code=True,
revision=revision,
)
- 添加GLM-4对话模板:
在conversation.py中添加GLM-4专用的对话模板:
register_conv_template(
Conversation(
name="chatglm4",
system_template="<|system|>\n{system_message}",
roles=("<|user|>", "<|assistant|>"),
sep_style=SeparatorStyle.CHATGLM4,
stop_token_ids=[64795, 64797, 2],
)
)
关键修复点
- 特殊token处理:在解码输出时添加
skip_special_tokens=True
参数:
response = tokenizer.decode(output_ids, skip_special_tokens=True)
-
消息列表处理:修复了
recover_message_list
函数对GLM-4格式消息的处理逻辑。 -
停止条件设置:正确配置了GLM-4的停止token列表。
实践建议
-
对于临时解决方案,建议优先采用修改模型路径名称的方法。
-
如需完整功能支持,建议实施深度适配方案,但需要注意这需要对FastChat框架有较深理解。
-
长期来看,建议等待FastChat官方对GLM-4的正式支持更新。
-
在调试过程中,可以使用简单的测试问题验证模型响应是否正常,避免复杂场景下的干扰。
总结
GLM-4系列模型作为新一代大语言模型,其对话格式和处理逻辑与之前版本有所不同。在Langchain-Chatchat项目中集成时,需要特别注意FastChat框架的兼容性问题。本文提供的解决方案已经经过社区验证,能够有效解决模型输出异常的问题。随着生态的完善,预计官方将很快提供原生支持,届时集成过程将更加简便。
- DDeepSeek-V3.1-BaseDeepSeek-V3.1 是一款支持思考模式与非思考模式的混合模型Python00
- QQwen-Image-Edit基于200亿参数Qwen-Image构建,Qwen-Image-Edit实现精准文本渲染与图像编辑,融合语义与外观控制能力Jinja00
GitCode-文心大模型-智源研究院AI应用开发大赛
GitCode&文心大模型&智源研究院强强联合,发起的AI应用开发大赛;总奖池8W,单人最高可得价值3W奖励。快来参加吧~059CommonUtilLibrary
快速开发工具类收集,史上最全的开发工具类,欢迎Follow、Fork、StarJava04GitCode百大开源项目
GitCode百大计划旨在表彰GitCode平台上积极推动项目社区化,拥有广泛影响力的G-Star项目,入选项目不仅代表了GitCode开源生态的蓬勃发展,也反映了当下开源行业的发展趋势。07GOT-OCR-2.0-hf
阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00openHiTLS
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!C0381- WWan2.2-S2V-14B【Wan2.2 全新发布|更强画质,更快生成】新一代视频生成模型 Wan2.2,创新采用MoE架构,实现电影级美学与复杂运动控制,支持720P高清文本/图像生成视频,消费级显卡即可流畅运行,性能达业界领先水平Python00
- GGLM-4.5-AirGLM-4.5 系列模型是专为智能体设计的基础模型。GLM-4.5拥有 3550 亿总参数量,其中 320 亿活跃参数;GLM-4.5-Air采用更紧凑的设计,拥有 1060 亿总参数量,其中 120 亿活跃参数。GLM-4.5模型统一了推理、编码和智能体能力,以满足智能体应用的复杂需求Jinja00
Yi-Coder
Yi Coder 编程模型,小而强大的编程助手HTML013
热门内容推荐
最新内容推荐
项目优选









