SWE-bench系统测试指南:端到端功能验证全流程
2026-02-05 05:52:17作者:房伟宁
1. 测试环境搭建
SWE-bench采用Docker容器化环境进行测试,确保不同平台间结果一致性。首先需完成Docker环境配置,推荐至少16GB内存和120GB磁盘空间。
Docker安装完成后,通过以下命令验证环境:
# 检查Docker版本
docker --version
# 运行测试容器
docker run hello-world
# 查看Docker磁盘使用情况
docker system df
1.1 资源管理配置
SWE-bench提供多级缓存策略平衡速度与存储需求:
| 缓存级别 | 描述 | 存储影响 | 性能 |
|---|---|---|---|
none |
无缓存 | 最小(~120GB运行时) | 最慢 |
base |
仅缓存基础镜像 | 最小(~120GB运行时) | 慢 |
env (默认) |
缓存基础和环境镜像 | 中等(~100GB) | 中等 |
instance |
缓存所有镜像 | 高(~2000GB) | 最快 |
配置缓存级别命令:
python -m swebench.harness.run_evaluation \
--predictions_path <path_to_predictions> \
--cache_level env \
--clean True
2. 测试执行流程
2.1 基本测试命令
SWE-bench测试主入口为swebench.harness.run_evaluation模块:
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench_Lite \
--predictions_path <path_to_predictions> \
--max_workers 8 \
--run_id my_evaluation_run
对于初学者,建议从SWE-bench Lite子集开始:
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench_Lite \
--predictions_path <path_to_predictions> \
--max_workers 8 \
--run_id my_first_evaluation
完整数据集测试命令:
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench \
--predictions_path <path_to_predictions> \
--max_workers 12 \
--run_id full_evaluation
2.2 测试架构
SWE-bench测试系统采用三层Docker镜像架构:
- 基础镜像:所有测试共享的通用依赖
- 环境镜像:不同配置的Python环境(~60个)
- 实例镜像:每个测试任务的特定依赖
3. 测试数据准备
3.1 预测文件格式
测试预测结果需采用JSONL格式,每行包含:
{
"instance_id": "repo_owner__repo_name-issue_number",
"model_name_or_path": "your-model-name",
"model_patch": "the patch content as a string"
}
示例:
{"instance_id": "sympy__sympy-20590", "model_name_or_path": "gpt-4", "model_patch": "diff --git a/sympy/core/sympify.py b/sympy/core/sympify.py\nindex 6a73a83..fb90e1a 100644\n--- a/sympy/core/sympify.py\n+++ b/sympy/core/sympify.py\n@@ -508,7 +508,7 @@ def sympify(a, locals=None, convert_xor=True, strict=False, rational=False,\n converter[type(a)],\n (SympifyError,\n OverflowError,\n- ValueError)):\n+ ValueError, AttributeError)):\n return a\n"}
3.2 数据集选择
SWE-bench提供多种测试数据集:
- SWE-bench Lite:轻量级测试集
- 完整SWE-bench:全量测试集
4. 高级测试选项
4.1 指定实例测试
如需测试特定实例,使用--instance_ids参数:
python -m swebench.harness.run_evaluation \
--predictions_path <path_to_predictions> \
--instance_ids astropy__astropy-14539 sympy__sympy-20590 \
--max_workers 2
4.2 云端测试执行
通过Modal在云端运行测试:
# 安装Modal
pip install modal swebench[modal]
# 首次使用需配置
modal setup
# 运行云端测试
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench_Lite \
--predictions_path <path_to_predictions> \
--parallelism 10 \
--modal true
5. 测试结果分析
5.1 结果文件说明
测试结果存储在evaluation_results目录,包含:
results.json:总体测试指标instance_results.jsonl:每个实例的详细结果run_logs/:各测试实例的日志文件
5.2 关键指标解析
测试报告包含以下关键指标:
- Total instances:数据集中的实例总数
- Instances submitted:模型尝试解决的实例数
- Instances completed:完成测试的实例数
- Instances resolved:补丁成功修复的实例数
- Resolution rate:成功解决的实例百分比
5.3 测试流程图
6. 常见问题排查
6.1 资源相关问题
-
磁盘空间不足:
- 使用
docker system prune清理未使用资源 - 降低缓存级别:
--cache_level=base
- 使用
-
性能优化:
- 根据CPU核心数调整工作线程:
# 8核CPU推荐设置 --max_workers 6 # 16核CPU推荐设置 --max_workers 12
6.2 日志分析
查看测试日志定位问题:
# 查看特定实例的日志
cat evaluation_results/run_logs/<instance_id>.log
主要日志目录:日志目录
7. 自动化测试集成
7.1 批量测试脚本
创建批量测试脚本run_tests.sh:
#!/bin/bash
# 基础测试
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench_Lite \
--predictions_path ./predictions \
--max_workers 8 \
--run_id daily_test
# 清理资源
docker system prune -f
7.2 持续集成配置
配置GitHub Actions工作流:
name: SWE-bench Tests
on: [push]
jobs:
evaluate:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v4
- name: Set up Docker
uses: docker/setup-buildx-action@v2
- name: Run tests
run: |
python -m swebench.harness.run_evaluation \
--dataset_name princeton-nlp/SWE-bench_Lite \
--predictions_path ./test_predictions
8. 测试工具链参考
- 测试核心模块:swebench/harness/run_evaluation.py
- Docker构建工具:swebench/harness/docker_build.py
- 评分系统:swebench/harness/grading.py
- 日志解析器:swebench/harness/log_parsers/
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
热门内容推荐
最新内容推荐
Degrees of Lewdity中文汉化终极指南:零基础玩家必看的完整教程Unity游戏翻译神器:XUnity Auto Translator 完整使用指南PythonWin7终极指南:在Windows 7上轻松安装Python 3.9+终极macOS键盘定制指南:用Karabiner-Elements提升10倍效率Pandas数据分析实战指南:从零基础到数据处理高手 Qwen3-235B-FP8震撼升级:256K上下文+22B激活参数7步搞定机械键盘PCB设计:从零开始打造你的专属键盘终极WeMod专业版解锁指南:3步免费获取完整高级功能DeepSeek-R1-Distill-Qwen-32B技术揭秘:小模型如何实现大模型性能突破音频修复终极指南:让每一段受损声音重获新生
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
567
3.84 K
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
68
20
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
暂无简介
Dart
799
199
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
780
喝着茶写代码!最易用的自托管一站式代码托管平台,包含Git托管,代码审查,团队协作,软件包和CI/CD。
Go
23
0
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
349
200
Ascend Extension for PyTorch
Python
377
450
无需学习 Kubernetes 的容器平台,在 Kubernetes 上构建、部署、组装和管理应用,无需 K8s 专业知识,全流程图形化管理
Go
16
1
