Trae Agent CLI完全解析:3分钟上手强大命令行工具
2026-02-04 05:17:43作者:殷蕙予
为什么需要Trae Agent CLI?
你是否还在为复杂的软件开发任务手动编写大量脚本?是否在寻找一种能够理解自然语言指令并自动执行开发流程的工具?Trae Agent CLI(命令行界面,Command Line Interface)正是为解决这些痛点而生。作为基于大型语言模型(LLM)的通用软件开发任务代理,Trae Agent CLI能够将自然语言描述的开发任务转化为实际可执行的操作,大幅提升开发效率。
读完本文后,你将能够:
- 快速安装并配置Trae Agent环境
- 掌握核心CLI命令的使用方法
- 理解如何通过自然语言指令驱动软件开发流程
- 灵活运用Docker模式进行隔离开发
- 高效管理和监控Agent执行过程
安装与环境准备
系统要求
| 环境要求 | 最低版本 | 推荐版本 |
|---|---|---|
| Python | 3.8 | 3.10+ |
| Docker | 20.10 | 24.0+ |
| 内存 | 4GB | 8GB+ |
| 磁盘空间 | 1GB | 5GB+ |
安装步骤
- 克隆代码仓库
git clone https://gitcode.com/gh_mirrors/tr/trae-agent
cd trae-agent
- 安装依赖
# 使用Makefile快速安装
make install
# 或手动安装
pip install .
- 验证安装
trae --version
# 预期输出: trae 0.1.0
配置文件设置
Trae Agent支持YAML和JSON两种配置格式,默认加载当前目录下的trae_config.yaml:
# trae_config.yaml示例
trae_agent:
model:
model_provider:
provider: "openai"
base_url: "https://api.openai.com/v1"
api_key: "your-api-key"
model: "gpt-4"
max_tokens: 4096
temperature: 0.7
max_steps: 20
核心命令详解
trae run - 执行开发任务
run命令是Trae Agent的核心,用于执行自然语言描述的开发任务:
# 基本用法
trae run "为项目添加错误处理功能"
# 指定任务文件
trae run -f task_description.txt
# 使用特定配置文件
trae run --config-file my_config.yaml "优化用户登录流程"
关键参数解析
| 参数 | 缩写 | 描述 |
|---|---|---|
--file |
-f |
从文件读取任务描述 |
--provider |
-p |
指定LLM提供商(openai/anthropic等) |
--model |
-m |
指定使用的模型 |
--working-dir |
-w |
设置工作目录 |
--docker-image |
- | 指定Docker镜像运行环境 |
--trajectory-file |
-t |
保存执行轨迹到文件 |
使用示例:Docker隔离模式
# 使用现有Docker镜像
trae run --docker-image python:3.10 "创建一个Flask HelloWorld应用"
# 从Dockerfile构建环境
trae run --dockerfile-path ./Dockerfile "实现用户认证API"
trae interactive - 交互式开发会话
启动交互式会话,支持多轮对话式开发:
# 启动基本交互式模式
trae interactive
# 使用富终端界面
trae interactive -ct rich
在交互式模式中,你可以:
- 输入自然语言任务描述
- 使用
status命令查看Agent状态 - 通过
clear命令清屏 - 使用
exit或quit退出会话
# 交互式会话示例
Trae Agent > 为项目添加单元测试
工作目录 [当前目录]: ./src
正在执行任务...
[成功] 已为5个模块添加单元测试,覆盖率提升至85%
Trae Agent > status
Provider: openai
Model: gpt-4
Available Tools: 8
Config File: trae_config.yaml
Working Directory: ./src
trae show-config - 配置查看
查看当前生效的配置信息:
trae show-config
# 指定配置文件
trae show-config --config-file custom_config.yaml
输出示例:
┌──────────────────┬──────────────────────────────┐
│ Setting │ Value │
├──────────────────┼──────────────────────────────┤
│ Default Provider │ openai │
│ Max Steps │ 20 │
└──────────────────┴──────────────────────────────┘
┌──────────────────┬──────────────────────────────┐
│ Setting │ Value │
├──────────────────┼──────────────────────────────┤
│ Model │ gpt-4 │
│ Base URL │ https://api.openai.com/v1 │
│ API Version │ None │
│ API Key │ Set (sk-xxx...xxxx) │
│ Max Tokens │ 4096 │
│ Temperature │ 0.7 │
│ Top P │ 1.0 │
└──────────────────┴──────────────────────────────┘
trae tools - 工具列表
查看Agent可用的开发工具:
trae tools
输出示例:
┌──────────────┬──────────────────────────────────┐
│ Tool Name │ Description │
├──────────────┼──────────────────────────────────┤
│ bash │ Run commands in a bash shell │
│ edit_tool │ Edit files in the workspace │
│ json_edit │ Edit JSON files with JSONPath │
│ mcp_tool │ Interact with MCP server │
│ ckg_tool │ Access code knowledge graph │
└──────────────┴──────────────────────────────────┘
高级功能
Docker隔离环境
Trae Agent提供四种Docker模式,确保开发环境隔离与一致性:
flowchart TD
A[Docker模式选择] --> B[使用现有镜像]
A --> C[附加到容器]
A --> D[从Dockerfile构建]
A --> E[加载本地镜像文件]
B --> F[trae run --docker-image python:3.10]
C --> G[trae run --docker-container-id abc123]
D --> H[trae run --dockerfile-path ./Dockerfile]
E --> I[trae run --docker-image-file ./image.tar]
执行轨迹记录
Trae Agent会自动记录任务执行轨迹,方便回溯和分析:
# 指定轨迹文件
trae run --trajectory-file task1.traj "实现用户注册功能"
# 轨迹文件内容示例(JSON格式)
{
"task": "实现用户注册功能",
"steps": [
{"tool": "bash", "command": "mkdir -p src/auth", "output": ""},
{"tool": "edit_tool", "file": "src/auth/register.py", "action": "create", "status": "success"},
{"tool": "bash", "command": "pytest tests/auth", "output": "3 passed in 0.42s"}
],
"result": "success",
"timestamp": "2025-09-10T10:30:45Z"
}
多工具协同工作
Trae Agent能够自动选择和组合多种工具完成复杂任务:
sequenceDiagram
participant User
participant Agent
participant BashTool
participant EditTool
participant JSONTool
User->>Agent: "为项目添加配置文件并设置默认参数"
Agent->>BashTool: 执行 "mkdir -p config"
BashTool-->>Agent: 成功
Agent->>EditTool: 创建 config/app.json
EditTool-->>Agent: 文件创建成功
Agent->>JSONTool: 设置 default.loglevel = "info"
JSONTool-->>Agent: JSON路径更新成功
Agent->>User: 任务完成,配置文件已创建并设置默认日志级别
实用场景示例
场景1:快速原型开发
# 创建一个简单的FastAPI应用
trae run -w ./fastapi-demo "创建一个FastAPI应用,包含用户CRUD接口"
# 输出
[blue]Changed working directory to: ./fastapi-demo[/blue]
[green]Trajectory saved to: ./trajectory_202509101234.json[/green]
# 查看生成的文件
ls ./fastapi-demo
# main.py requirements.txt tests/ Dockerfile
场景2:自动化测试与修复
trae run "运行测试套件,自动修复发现的问题" --must-patch -pp fixes.patch
# 输出
[blue]Running tests...[/blue]
[yellow]发现3个测试失败[/yellow]
[blue]尝试自动修复...[/blue]
[green]成功修复2个问题,生成补丁文件: fixes.patch[/green]
场景3:交互式代码重构
trae interactive -ct rich
# 在交互式界面中
> 重构User类,使用dataclass并添加类型注解
> 工作目录: ./src/models
> 确认重构范围: User类的所有方法
> [重构过程显示]
> [成功] User类已重构为dataclass并添加完整类型注解
故障排除与最佳实践
常见问题解决
| 问题 | 原因 | 解决方案 |
|---|---|---|
| Docker连接错误 | Docker服务未启动 | systemctl start docker (Linux) 或启动Docker Desktop (Windows/Mac) |
| API密钥错误 | 密钥无效或过期 | 检查配置文件中的API密钥,或设置环境变量 TRAE_API_KEY |
| 工具执行超时 | 命令执行时间过长 | 使用 --timeout 参数增加超时时间,或优化命令 |
| 配置文件未找到 | 未指定配置文件路径 | 使用 --config-file 指定配置文件,或创建默认配置 |
性能优化建议
- 选择合适的模型:复杂任务使用GPT-4,简单任务可使用更高效的模型如GPT-3.5-Turbo
# 指定轻量级模型处理简单任务
trae run -p openai -m gpt-3.5-turbo "格式化代码并添加注释"
-
合理设置工作目录:明确指定工作目录减少Agent的文件搜索范围
-
使用Docker模式:隔离不同项目的依赖环境,避免冲突
-
限制最大步骤:根据任务复杂度调整
--max-steps参数
# 复杂任务增加步骤限制
trae run --max-steps 30 "实现完整的用户认证系统"
总结与展望
Trae Agent CLI通过自然语言驱动软件开发流程,极大降低了复杂开发任务的门槛。本文介绍了其核心命令、高级功能和实用场景,帮助你快速上手这一强大工具。
随着LLM技术的不断发展,Trae Agent未来将支持更多开发场景和工具集成,包括:
- 多语言代码生成与优化
- 更智能的错误诊断与修复
- 团队协作功能与版本控制集成
- 自定义工具扩展机制
立即尝试Trae Agent CLI,体验AI驱动开发的全新方式:
# 开始你的第一个AI驱动开发任务
trae run "为你的项目创建一份详细的README.md"
收藏本文,关注项目更新,获取最新功能和最佳实践指南!
相关资源:
- 项目仓库:https://gitcode.com/gh_mirrors/tr/trae-agent
- 完整文档:docs/ 目录下的markdown文件
- 配置示例:trae_config.yaml.example
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
567
3.83 K
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
68
20
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
暂无简介
Dart
798
197
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
779
喝着茶写代码!最易用的自托管一站式代码托管平台,包含Git托管,代码审查,团队协作,软件包和CI/CD。
Go
23
0
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
349
200
Ascend Extension for PyTorch
Python
376
446
无需学习 Kubernetes 的容器平台,在 Kubernetes 上构建、部署、组装和管理应用,无需 K8s 专业知识,全流程图形化管理
Go
16
1