LangChain项目中使用ChatDeepSeek实现结构化输出的最佳实践
2025-04-28 14:27:39作者:田桥桑Industrious
在LangChain项目中,开发者经常需要将大语言模型的输出结构化处理,以便后续程序能够更好地解析和使用。本文将以ChatDeepSeek模型为例,详细介绍如何正确实现这一功能。
问题背景
在使用LangChain框架时,开发者可能会遇到函数调用(function calling)无法正常工作的问题。具体表现为:当尝试通过bind()方法绑定Pydantic模型作为函数时,系统会抛出KeyError: 'function_call'错误。这表明模型未能按预期返回函数调用结构。
技术分析
经过深入研究发现,这个问题源于LangChain生态中"函数调用"和"工具调用"两种机制的差异:
- 函数调用(Function Calling):早期的实现方式,直接绑定Pydantic模型作为函数
- 工具调用(Tool Calling):新的推荐方式,将功能封装为工具使用
解决方案
推荐使用工具调用(Tool Calling)方式实现结构化输出,以下是具体实现步骤:
1. 定义数据模型
首先需要定义Pydantic数据模型,描述期望输出的数据结构:
from pydantic import BaseModel, Field
class Tagging(BaseModel):
"""日志标签模型"""
status: str = Field(description="日志状态,可选值:'success', 'failure', 'pending', 'timeout'")
error_info: str = Field(description="当状态为'failure'时的错误信息,请用英文描述")
2. 转换为工具定义
将Pydantic模型转换为工具定义:
from langchain_core.utils.function_calling import convert_to_openai_function
function_def = convert_to_openai_function(Tagging)
tool = {"type": "function", "function": function_def}
3. 配置模型绑定
正确配置ChatDeepSeek模型,绑定工具并指定工具选择:
from langchain_deepseek import ChatDeepSeek
llm = ChatDeepSeek(
model='deepseek-ai/DeepSeek-V2.5',
api_base="https://api.siliconflow.cn/v1",
api_key="your_api_key"
).bind(
tools=[tool],
tool_choice={"type": "function", "function": {"name": "Tagging"}}
)
4. 构建处理链
构建完整的处理链,包括提示模板、模型调用和输出解析:
from langchain.prompts import ChatPromptTemplate
from langchain.output_parsers import JsonOutputToolsParser
prompt = ChatPromptTemplate.from_template("从以下文本中提取日志信息: {input}")
chain = prompt | llm | JsonOutputToolsParser()
5. 调用链并处理结果
最后调用处理链并获取结构化输出:
result = chain.invoke({"input": "Process exit with 0"})
print(result)
技术要点
- 工具与函数的区别:工具是更通用的概念,可以包含函数、API等多种实现方式
- 输出解析器选择:使用
JsonOutputToolsParser而非JsonOutputFunctionsParser - 绑定方式:推荐使用
bind()方法的tools和tool_choice参数,而非旧的函数绑定方式
实际应用示例
以下是一个完整的日志分析应用示例:
def analyze_log(log_content):
# 构建处理链
function_def = convert_to_openai_function(Tagging)
tool = {"type": "function", "function": function_def}
llm = ChatDeepSeek(
model='deepseek-ai/DeepSeek-V2.5',
api_base="https://api.siliconflow.cn/v1",
api_key="your_api_key"
).bind(tools=[tool], tool_choice={"type": "function", "function": {"name": "Tagging"}})
prompt = ChatPromptTemplate.from_template("分析以下日志内容: {input}")
chain = prompt | llm | JsonOutputToolsParser()
# 执行分析
return chain.invoke({"input": log_content})
总结
在LangChain项目中使用ChatDeepSeek模型时,推荐采用工具调用(Tool Calling)的方式实现结构化输出。这种方法不仅解决了函数调用可能出现的兼容性问题,还提供了更灵活的功能扩展能力。开发者应遵循这一最佳实践,确保应用的稳定性和可维护性。
登录后查看全文
热门项目推荐
相关项目推荐
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C091
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
473
3.52 K
React Native鸿蒙化仓库
JavaScript
286
338
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
224
91
Ascend Extension for PyTorch
Python
283
316
暂无简介
Dart
722
174
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
10
1
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
849
438
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.27 K
699
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
65
19