SWE-bench系统测试指南:端到端功能验证全流程
2026-02-05 05:52:17作者:房伟宁
1. 测试环境搭建
SWE-bench采用Docker容器化环境进行测试,确保不同平台间结果一致性。首先需完成Docker环境配置,推荐至少16GB内存和120GB磁盘空间。
Docker安装完成后,通过以下命令验证环境:
# 检查Docker版本
docker --version
# 运行测试容器
docker run hello-world
# 查看Docker磁盘使用情况
docker system df
1.1 资源管理配置
SWE-bench提供多级缓存策略平衡速度与存储需求:
| 缓存级别 | 描述 | 存储影响 | 性能 |
|---|---|---|---|
none |
无缓存 | 最小(~120GB运行时) | 最慢 |
base |
仅缓存基础镜像 | 最小(~120GB运行时) | 慢 |
env (默认) |
缓存基础和环境镜像 | 中等(~100GB) | 中等 |
instance |
缓存所有镜像 | 高(~2000GB) | 最快 |
配置缓存级别命令:
python -m swebench.harness.run_evaluation \
--predictions_path <path_to_predictions> \
--cache_level env \
--clean True
2. 测试执行流程
2.1 基本测试命令
SWE-bench测试主入口为swebench.harness.run_evaluation模块:
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench_Lite \
--predictions_path <path_to_predictions> \
--max_workers 8 \
--run_id my_evaluation_run
对于初学者,建议从SWE-bench Lite子集开始:
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench_Lite \
--predictions_path <path_to_predictions> \
--max_workers 8 \
--run_id my_first_evaluation
完整数据集测试命令:
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench \
--predictions_path <path_to_predictions> \
--max_workers 12 \
--run_id full_evaluation
2.2 测试架构
SWE-bench测试系统采用三层Docker镜像架构:
- 基础镜像:所有测试共享的通用依赖
- 环境镜像:不同配置的Python环境(~60个)
- 实例镜像:每个测试任务的特定依赖
3. 测试数据准备
3.1 预测文件格式
测试预测结果需采用JSONL格式,每行包含:
{
"instance_id": "repo_owner__repo_name-issue_number",
"model_name_or_path": "your-model-name",
"model_patch": "the patch content as a string"
}
示例:
{"instance_id": "sympy__sympy-20590", "model_name_or_path": "gpt-4", "model_patch": "diff --git a/sympy/core/sympify.py b/sympy/core/sympify.py\nindex 6a73a83..fb90e1a 100644\n--- a/sympy/core/sympify.py\n+++ b/sympy/core/sympify.py\n@@ -508,7 +508,7 @@ def sympify(a, locals=None, convert_xor=True, strict=False, rational=False,\n converter[type(a)],\n (SympifyError,\n OverflowError,\n- ValueError)):\n+ ValueError, AttributeError)):\n return a\n"}
3.2 数据集选择
SWE-bench提供多种测试数据集:
- SWE-bench Lite:轻量级测试集
- 完整SWE-bench:全量测试集
4. 高级测试选项
4.1 指定实例测试
如需测试特定实例,使用--instance_ids参数:
python -m swebench.harness.run_evaluation \
--predictions_path <path_to_predictions> \
--instance_ids astropy__astropy-14539 sympy__sympy-20590 \
--max_workers 2
4.2 云端测试执行
通过Modal在云端运行测试:
# 安装Modal
pip install modal swebench[modal]
# 首次使用需配置
modal setup
# 运行云端测试
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench_Lite \
--predictions_path <path_to_predictions> \
--parallelism 10 \
--modal true
5. 测试结果分析
5.1 结果文件说明
测试结果存储在evaluation_results目录,包含:
results.json:总体测试指标instance_results.jsonl:每个实例的详细结果run_logs/:各测试实例的日志文件
5.2 关键指标解析
测试报告包含以下关键指标:
- Total instances:数据集中的实例总数
- Instances submitted:模型尝试解决的实例数
- Instances completed:完成测试的实例数
- Instances resolved:补丁成功修复的实例数
- Resolution rate:成功解决的实例百分比
5.3 测试流程图
6. 常见问题排查
6.1 资源相关问题
-
磁盘空间不足:
- 使用
docker system prune清理未使用资源 - 降低缓存级别:
--cache_level=base
- 使用
-
性能优化:
- 根据CPU核心数调整工作线程:
# 8核CPU推荐设置 --max_workers 6 # 16核CPU推荐设置 --max_workers 12
6.2 日志分析
查看测试日志定位问题:
# 查看特定实例的日志
cat evaluation_results/run_logs/<instance_id>.log
主要日志目录:日志目录
7. 自动化测试集成
7.1 批量测试脚本
创建批量测试脚本run_tests.sh:
#!/bin/bash
# 基础测试
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench_Lite \
--predictions_path ./predictions \
--max_workers 8 \
--run_id daily_test
# 清理资源
docker system prune -f
7.2 持续集成配置
配置GitHub Actions工作流:
name: SWE-bench Tests
on: [push]
jobs:
evaluate:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v4
- name: Set up Docker
uses: docker/setup-buildx-action@v2
- name: Run tests
run: |
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench_Lite \
--predictions_path ./test_predictions
8. 测试工具链参考
- 测试核心模块:swebench/harness/run_evaluation.py
- Docker构建工具:swebench/harness/docker_build.py
- 评分系统:swebench/harness/grading.py
- 日志解析器:swebench/harness/log_parsers/
登录后查看全文
热门项目推荐
相关项目推荐
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
532
3.75 K
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
336
178
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
886
596
Ascend Extension for PyTorch
Python
340
405
暂无简介
Dart
772
191
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
986
247
本仓将收集和展示高质量的仓颉示例代码,欢迎大家投稿,让全世界看到您的妙趣设计,也让更多人通过您的编码理解和喜爱仓颉语言。
Cangjie
416
4.21 K
React Native鸿蒙化仓库
JavaScript
303
355
