3分钟搞定LLM测试数据:DeepEval样本生成全攻略
你还在手动编写测试用例?当LLM应用需要验证100种用户提问场景时,传统方式要耗费数小时整理prompt和预期输出。本文将带你用DeepEval的三大工具链实现测试数据自动化生成,从此告别重复劳动。
读完本文你将掌握:
- 基于文档自动创建问答对的3行代码方案
- 零代码生成多轮对话测试数据的可视化流程
- 自定义测试集的5个实用模板(附参数配置表)
核心工具链概览
DeepEval提供三类测试数据生成方案,覆盖从基础到复杂的各类场景需求。所有功能均已集成在deepeval.dataset和synthesizer模块中,无需额外安装插件。
图1:DeepEval测试数据生成流程演示
工具选型决策指南
| 生成方式 | 适用场景 | 核心优势 | 代码示例路径 |
|---|---|---|---|
| 文档解析 | API文档/知识库测试 | 保留原始上下文 | examples/create_tests.py |
| 上下文合成 | 动态场景测试 | 支持多轮演化 | deepeval/synthesizer/synthesizer.py |
| 人工定义 | 边界条件测试 | 完全可控 | deepeval/dataset/golden.py |
从文档到测试集:5分钟速成法
单文件快速生成
通过create_evaluation_query_answer_pairs接口可直接从文本生成测试数据。以下代码片段演示如何基于FastAPI文档创建3组问答测试用例:
from deepeval.dataset import create_evaluation_query_answer_pairs
dataset = create_evaluation_query_answer_pairs(
openai_api_key=os.environ["OPENAI_API_KEY"],
context="FastAPI是一个现代、快速(高性能)的Web框架,用于基于标准Python类型提示构建API。",
n=3 # 生成3组测试数据
)
dataset.review() # 交互式预览和编辑
生成结果将包含自动创建的input(用户提问)、context(关联文档片段)和expected_output(模型应返回的正确答案)字段,完整数据结构定义见deepeval/dataset/golden.py的Golden类。
多文档批量处理
当需要处理PDF/Markdown文档集合时,可使用synthesizer模块的文档解析功能。核心APIgenerate_goldens_from_docs支持以下高级特性:
- 自动提取关键段落(基于TF-IDF和余弦相似度)
- 过滤低质量上下文(可配置阈值0-1)
- 按文档来源分组测试数据
from deepeval.synthesizer import Synthesizer
synthesizer = Synthesizer(model="gpt-4")
goldens = synthesizer.generate_goldens_from_docs(
document_paths=["api_docs.md", "user_manual.pdf"],
max_goldens_per_context=2, # 每个上下文生成2个提问
context_construction_config=ContextConstructionConfig(
max_contexts_per_document=5 # 每文档提取5个关键上下文
)
)
代码1:多文档测试数据生成示例
高级生成技巧
提问演化策略
基础问答对生成后,可通过evolution_config参数创建多样化测试场景。系统内置7种演化模板,包括:
- 推理增强:添加"请解释原因"等推理要求
- 多上下文:混合多个文档片段生成关联问题
- 约束条件:限定回答格式(如JSON/表格)
from deepeval.synthesizer.config import EvolutionConfig
synthesizer = Synthesizer(
model="gpt-4",
evolution_config=EvolutionConfig(
evolutions=["Reasoning", "Constrained"], # 应用两种演化策略
num_evolutions=3 # 每种原始提问生成3个变体
)
)
代码2:提问演化配置示例
多轮对话生成
对于聊天机器人测试,ConversationalGolden类支持创建包含多轮交互的测试数据。通过turns字段定义对话流程,每个turn包含input(用户发言)和expected_output(机器人回复):
from deepeval.dataset.golden import ConversationalGolden, Turn
test_case = ConversationalGolden(
scenario="技术支持对话",
turns=[
Turn(input="我的API调用返回403", expected_output="请检查API密钥权限"),
Turn(input="密钥已经核对过", expected_output="请提供请求ID,我将查询日志")
]
)
代码3:多轮对话测试用例定义
自定义测试集最佳实践
字段扩展技巧
通过custom_column_key_values参数可添加业务特定字段,例如测试用例优先级或关联产品模块:
Golden(
input="如何重置密码",
expected_output="在设置页面点击安全选项",
custom_column_key_values={
"priority": "high",
"module": "user_auth"
}
)
数据导出与版本控制
生成的测试数据支持导出为JSONL/CSV格式,便于纳入CI/CD流程:
# 导出为JSONL格式
dataset.save(file_path="test_cases.jsonl", format="jsonl")
# 从文件加载测试集
from deepeval.dataset import EvaluationDataset
dataset = EvaluationDataset.load(file_path="test_cases.jsonl")
建议将生成脚本和配置文件存入版本控制系统,典型目录结构参考examples/rag_evaluation/。
常见问题解决
生成质量优化
当出现上下文无关的提问时,可调整以下参数:
- 提高
context_quality_threshold至0.7以上 - 减少
max_goldens_per_context降低生成压力 - 使用
filter_config过滤低相关性结果
成本控制方案
| 优化策略 | 预期效果 | 实现方式 |
|---|---|---|
| 模型降级 | 降低70% API成本 | 使用gpt-3.5-turbo替代gpt-4 |
| 缓存复用 | 减少重复生成 | 设置use_cache=True |
| 批量处理 | 提高吞吐量 | 调整max_concurrent=50 |
下一步行动
- 克隆项目仓库:
git clone https://gitcode.com/GitHub_Trending/de/deepeval
- 运行快速入门示例:
cd deepeval/examples/getting_started
python test_example.py
- 查阅完整API文档:docs/evaluation-datasets.mdx
通过DeepEval测试数据工具链,某电商客服机器人项目将测试覆盖率从30%提升至92%,同时将测试数据维护成本降低67%。立即尝试,让LLM应用测试不再成为发布瓶颈。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
