DocETL项目中LLM代理任务的策略模式重构实践
2025-07-08 04:06:00作者:翟江哲Frasier
背景与问题分析
在现代ETL(Extract-Transform-Load)系统中,LLM(大语言模型)正被越来越多地用于优化查询执行计划。在DocETL项目中,我们观察到多个优化器类(如MapOptimizer、ReduceOptimizer和JoinOptimizer)都嵌入了大量与LLM交互的重复代码模式。这种实现方式虽然功能完整,但存在几个显著问题:
- 代码重复:每个优化任务都重复实现相似的LLM交互流程
- 紧耦合:优化器业务逻辑与LLM交互细节深度耦合
- 维护困难:修改LLM交互方式需要多处同步变更
- 测试复杂:难以对LLM交互逻辑进行独立测试
现有实现的问题模式
当前实现中,每个LLM代理任务都遵循相似的7步模式:
- 任务特定上下文准备
- 代理角色定义
- 详细用户提示构建
- 输出模式定义
- LLM客户端调用
- 响应解析与提取
- 任务特定验证/重试
以JoinOptimizer中的_blocking_rules生成为例,这些步骤都直接嵌入在优化器方法中,导致方法臃肿且难以维护。
策略模式解决方案
我们采用策略模式对这部分代码进行重构,核心思想是将每个LLM代理任务封装为独立的策略类。具体实现包括:
1. 抽象基类设计
首先定义LLMAgentTask抽象基类,提供统一的接口:
class LLMAgentTask(ABC):
def __init__(self, llm_client: LLMClient, console: Console):
self.llm_client = llm_client
self.console = console
@abstractmethod
def execute(self, *args, **kwargs) -> Any:
"""执行特定的LLM代理任务"""
2. 具体策略实现
为每个LLM代理任务创建具体策略类。以生成阻塞规则为例:
class GenerateBlockingRuleTask(LLMAgentTask):
SYSTEM_PROMPT = "您是实体解析规则生成专家..."
OUTPUT_SCHEMA = {...}
def _build_user_prompt(self, sample_datas, blocking_keys, comparison_prompt):
"""封装提示构建逻辑"""
return f"分析这些样本比较..."
def execute(self, sample_datas, blocking_keys, comparison_prompt, max_retries):
"""完整封装7步交互流程"""
# 实现细节...
3. 优化器重构
优化器类只需实例化并使用相应策略:
def _generate_blocking_rules(self, blocking_keys, input_data, comparisons):
sample_datas = self._sample_comparison_data(input_data, comparisons)
rule_generator = GenerateBlockingRuleTask(self.llm_client, self.console)
blocking_rule = rule_generator.execute(...)
return [blocking_rule] if blocking_rule else []
架构优势与实施效果
这种重构带来了多方面改进:
- 关注点分离:优化器专注于业务逻辑,策略类处理LLM交互细节
- 代码复用:公共LLM交互模式被统一封装
- 易于测试:每个策略类可独立测试
- 扩展性强:新增LLM任务只需添加新策略类
- 维护简单:修改特定任务的LLM交互不影响其他部分
实践经验与建议
在实际重构过程中,我们总结了以下经验:
- 上下文传递:策略类可能需要访问优化器的部分上下文,需设计合理的参数传递机制
- 错误处理:将重试逻辑封装在策略类中,保持优化器代码简洁
- 提示工程:将系统提示和用户提示模板集中管理,便于统一调整
- 输出验证:每个策略类应包含针对其任务的特定输出验证逻辑
未来展望
虽然策略模式解决了当前问题,但随着系统演进,我们还可以考虑:
- 引入LLM交互框架,进一步标准化常见模式
- 开发提示模板管理系统
- 实现LLM交互的监控和性能分析
- 探索自动生成策略类的可能性
这种基于策略模式的重构不仅提升了DocETL项目的代码质量,也为其他类似系统中LLM集成提供了可借鉴的架构模式。通过清晰的职责划分和模块化设计,系统在面对不断变化的LLM技术和业务需求时,将展现出更强的适应性和可维护性。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
jiuwenclawJiuwenClaw 是一款基于openJiuwen开发的智能AI Agent,它能够将大语言模型的强大能力,通过你日常使用的各类通讯应用,直接延伸至你的指尖。Python0212- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
AtomGit城市坐标计划AtomGit 城市坐标计划开启!让开源有坐标,让城市有星火。致力于与城市合伙人共同构建并长期运营一个健康、活跃的本地开发者生态。01
MarkFlowy一款 AI Markdown 编辑器TSX01
热门内容推荐
最新内容推荐
项目优选
收起
deepin linux kernel
C
27
13
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
619
4.09 K
Ascend Extension for PyTorch
Python
454
540
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
69
21
暂无简介
Dart
861
206
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
928
785
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.49 K
842
AscendNPU-IR是基于MLIR(Multi-Level Intermediate Representation)构建的,面向昇腾亲和算子编译时使用的中间表示,提供昇腾完备表达能力,通过编译优化提升昇腾AI处理器计算效率,支持通过生态框架使能昇腾AI处理器与深度调优
C++
114
178
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
377
256
昇腾LLM分布式训练框架
Python
134
160