SWE-bench系统测试指南:端到端功能验证全流程
2026-02-05 05:52:17作者:房伟宁
1. 测试环境搭建
SWE-bench采用Docker容器化环境进行测试,确保不同平台间结果一致性。首先需完成Docker环境配置,推荐至少16GB内存和120GB磁盘空间。
Docker安装完成后,通过以下命令验证环境:
# 检查Docker版本
docker --version
# 运行测试容器
docker run hello-world
# 查看Docker磁盘使用情况
docker system df
1.1 资源管理配置
SWE-bench提供多级缓存策略平衡速度与存储需求:
| 缓存级别 | 描述 | 存储影响 | 性能 |
|---|---|---|---|
none |
无缓存 | 最小(~120GB运行时) | 最慢 |
base |
仅缓存基础镜像 | 最小(~120GB运行时) | 慢 |
env (默认) |
缓存基础和环境镜像 | 中等(~100GB) | 中等 |
instance |
缓存所有镜像 | 高(~2000GB) | 最快 |
配置缓存级别命令:
python -m swebench.harness.run_evaluation \
--predictions_path <path_to_predictions> \
--cache_level env \
--clean True
2. 测试执行流程
2.1 基本测试命令
SWE-bench测试主入口为swebench.harness.run_evaluation模块:
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench_Lite \
--predictions_path <path_to_predictions> \
--max_workers 8 \
--run_id my_evaluation_run
对于初学者,建议从SWE-bench Lite子集开始:
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench_Lite \
--predictions_path <path_to_predictions> \
--max_workers 8 \
--run_id my_first_evaluation
完整数据集测试命令:
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench \
--predictions_path <path_to_predictions> \
--max_workers 12 \
--run_id full_evaluation
2.2 测试架构
SWE-bench测试系统采用三层Docker镜像架构:
- 基础镜像:所有测试共享的通用依赖
- 环境镜像:不同配置的Python环境(~60个)
- 实例镜像:每个测试任务的特定依赖
3. 测试数据准备
3.1 预测文件格式
测试预测结果需采用JSONL格式,每行包含:
{
"instance_id": "repo_owner__repo_name-issue_number",
"model_name_or_path": "your-model-name",
"model_patch": "the patch content as a string"
}
示例:
{"instance_id": "sympy__sympy-20590", "model_name_or_path": "gpt-4", "model_patch": "diff --git a/sympy/core/sympify.py b/sympy/core/sympify.py\nindex 6a73a83..fb90e1a 100644\n--- a/sympy/core/sympify.py\n+++ b/sympy/core/sympify.py\n@@ -508,7 +508,7 @@ def sympify(a, locals=None, convert_xor=True, strict=False, rational=False,\n converter[type(a)],\n (SympifyError,\n OverflowError,\n- ValueError)):\n+ ValueError, AttributeError)):\n return a\n"}
3.2 数据集选择
SWE-bench提供多种测试数据集:
- SWE-bench Lite:轻量级测试集
- 完整SWE-bench:全量测试集
4. 高级测试选项
4.1 指定实例测试
如需测试特定实例,使用--instance_ids参数:
python -m swebench.harness.run_evaluation \
--predictions_path <path_to_predictions> \
--instance_ids astropy__astropy-14539 sympy__sympy-20590 \
--max_workers 2
4.2 云端测试执行
通过Modal在云端运行测试:
# 安装Modal
pip install modal swebench[modal]
# 首次使用需配置
modal setup
# 运行云端测试
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench_Lite \
--predictions_path <path_to_predictions> \
--parallelism 10 \
--modal true
5. 测试结果分析
5.1 结果文件说明
测试结果存储在evaluation_results目录,包含:
results.json:总体测试指标instance_results.jsonl:每个实例的详细结果run_logs/:各测试实例的日志文件
5.2 关键指标解析
测试报告包含以下关键指标:
- Total instances:数据集中的实例总数
- Instances submitted:模型尝试解决的实例数
- Instances completed:完成测试的实例数
- Instances resolved:补丁成功修复的实例数
- Resolution rate:成功解决的实例百分比
5.3 测试流程图
6. 常见问题排查
6.1 资源相关问题
-
磁盘空间不足:
- 使用
docker system prune清理未使用资源 - 降低缓存级别:
--cache_level=base
- 使用
-
性能优化:
- 根据CPU核心数调整工作线程:
# 8核CPU推荐设置 --max_workers 6 # 16核CPU推荐设置 --max_workers 12
6.2 日志分析
查看测试日志定位问题:
# 查看特定实例的日志
cat evaluation_results/run_logs/<instance_id>.log
主要日志目录:日志目录
7. 自动化测试集成
7.1 批量测试脚本
创建批量测试脚本run_tests.sh:
#!/bin/bash
# 基础测试
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench_Lite \
--predictions_path ./predictions \
--max_workers 8 \
--run_id daily_test
# 清理资源
docker system prune -f
7.2 持续集成配置
配置GitHub Actions工作流:
name: SWE-bench Tests
on: [push]
jobs:
evaluate:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v4
- name: Set up Docker
uses: docker/setup-buildx-action@v2
- name: Run tests
run: |
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench_Lite \
--predictions_path ./test_predictions
8. 测试工具链参考
- 测试核心模块:swebench/harness/run_evaluation.py
- Docker构建工具:swebench/harness/docker_build.py
- 评分系统:swebench/harness/grading.py
- 日志解析器:swebench/harness/log_parsers/
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00
项目优选
收起
deepin linux kernel
C
27
14
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
659
4.26 K
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.54 K
894
Ascend Extension for PyTorch
Python
504
609
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
391
288
暂无简介
Dart
906
218
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
69
21
昇腾LLM分布式训练框架
Python
142
168
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
939
863
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.33 K
108
