Trae Agent CLI完全解析:3分钟上手强大命令行工具
2026-02-04 05:17:43作者:殷蕙予
为什么需要Trae Agent CLI?
你是否还在为复杂的软件开发任务手动编写大量脚本?是否在寻找一种能够理解自然语言指令并自动执行开发流程的工具?Trae Agent CLI(命令行界面,Command Line Interface)正是为解决这些痛点而生。作为基于大型语言模型(LLM)的通用软件开发任务代理,Trae Agent CLI能够将自然语言描述的开发任务转化为实际可执行的操作,大幅提升开发效率。
读完本文后,你将能够:
- 快速安装并配置Trae Agent环境
- 掌握核心CLI命令的使用方法
- 理解如何通过自然语言指令驱动软件开发流程
- 灵活运用Docker模式进行隔离开发
- 高效管理和监控Agent执行过程
安装与环境准备
系统要求
| 环境要求 | 最低版本 | 推荐版本 |
|---|---|---|
| Python | 3.8 | 3.10+ |
| Docker | 20.10 | 24.0+ |
| 内存 | 4GB | 8GB+ |
| 磁盘空间 | 1GB | 5GB+ |
安装步骤
- 克隆代码仓库
git clone https://gitcode.com/gh_mirrors/tr/trae-agent
cd trae-agent
- 安装依赖
# 使用Makefile快速安装
make install
# 或手动安装
pip install .
- 验证安装
trae --version
# 预期输出: trae 0.1.0
配置文件设置
Trae Agent支持YAML和JSON两种配置格式,默认加载当前目录下的trae_config.yaml:
# trae_config.yaml示例
trae_agent:
model:
model_provider:
provider: "openai"
base_url: "https://api.openai.com/v1"
api_key: "your-api-key"
model: "gpt-4"
max_tokens: 4096
temperature: 0.7
max_steps: 20
核心命令详解
trae run - 执行开发任务
run命令是Trae Agent的核心,用于执行自然语言描述的开发任务:
# 基本用法
trae run "为项目添加错误处理功能"
# 指定任务文件
trae run -f task_description.txt
# 使用特定配置文件
trae run --config-file my_config.yaml "优化用户登录流程"
关键参数解析
| 参数 | 缩写 | 描述 |
|---|---|---|
--file |
-f |
从文件读取任务描述 |
--provider |
-p |
指定LLM提供商(openai/anthropic等) |
--model |
-m |
指定使用的模型 |
--working-dir |
-w |
设置工作目录 |
--docker-image |
- | 指定Docker镜像运行环境 |
--trajectory-file |
-t |
保存执行轨迹到文件 |
使用示例:Docker隔离模式
# 使用现有Docker镜像
trae run --docker-image python:3.10 "创建一个Flask HelloWorld应用"
# 从Dockerfile构建环境
trae run --dockerfile-path ./Dockerfile "实现用户认证API"
trae interactive - 交互式开发会话
启动交互式会话,支持多轮对话式开发:
# 启动基本交互式模式
trae interactive
# 使用富终端界面
trae interactive -ct rich
在交互式模式中,你可以:
- 输入自然语言任务描述
- 使用
status命令查看Agent状态 - 通过
clear命令清屏 - 使用
exit或quit退出会话
# 交互式会话示例
Trae Agent > 为项目添加单元测试
工作目录 [当前目录]: ./src
正在执行任务...
[成功] 已为5个模块添加单元测试,覆盖率提升至85%
Trae Agent > status
Provider: openai
Model: gpt-4
Available Tools: 8
Config File: trae_config.yaml
Working Directory: ./src
trae show-config - 配置查看
查看当前生效的配置信息:
trae show-config
# 指定配置文件
trae show-config --config-file custom_config.yaml
输出示例:
┌──────────────────┬──────────────────────────────┐
│ Setting │ Value │
├──────────────────┼──────────────────────────────┤
│ Default Provider │ openai │
│ Max Steps │ 20 │
└──────────────────┴──────────────────────────────┘
┌──────────────────┬──────────────────────────────┐
│ Setting │ Value │
├──────────────────┼──────────────────────────────┤
│ Model │ gpt-4 │
│ Base URL │ https://api.openai.com/v1 │
│ API Version │ None │
│ API Key │ Set (sk-xxx...xxxx) │
│ Max Tokens │ 4096 │
│ Temperature │ 0.7 │
│ Top P │ 1.0 │
└──────────────────┴──────────────────────────────┘
trae tools - 工具列表
查看Agent可用的开发工具:
trae tools
输出示例:
┌──────────────┬──────────────────────────────────┐
│ Tool Name │ Description │
├──────────────┼──────────────────────────────────┤
│ bash │ Run commands in a bash shell │
│ edit_tool │ Edit files in the workspace │
│ json_edit │ Edit JSON files with JSONPath │
│ mcp_tool │ Interact with MCP server │
│ ckg_tool │ Access code knowledge graph │
└──────────────┴──────────────────────────────────┘
高级功能
Docker隔离环境
Trae Agent提供四种Docker模式,确保开发环境隔离与一致性:
flowchart TD
A[Docker模式选择] --> B[使用现有镜像]
A --> C[附加到容器]
A --> D[从Dockerfile构建]
A --> E[加载本地镜像文件]
B --> F[trae run --docker-image python:3.10]
C --> G[trae run --docker-container-id abc123]
D --> H[trae run --dockerfile-path ./Dockerfile]
E --> I[trae run --docker-image-file ./image.tar]
执行轨迹记录
Trae Agent会自动记录任务执行轨迹,方便回溯和分析:
# 指定轨迹文件
trae run --trajectory-file task1.traj "实现用户注册功能"
# 轨迹文件内容示例(JSON格式)
{
"task": "实现用户注册功能",
"steps": [
{"tool": "bash", "command": "mkdir -p src/auth", "output": ""},
{"tool": "edit_tool", "file": "src/auth/register.py", "action": "create", "status": "success"},
{"tool": "bash", "command": "pytest tests/auth", "output": "3 passed in 0.42s"}
],
"result": "success",
"timestamp": "2025-09-10T10:30:45Z"
}
多工具协同工作
Trae Agent能够自动选择和组合多种工具完成复杂任务:
sequenceDiagram
participant User
participant Agent
participant BashTool
participant EditTool
participant JSONTool
User->>Agent: "为项目添加配置文件并设置默认参数"
Agent->>BashTool: 执行 "mkdir -p config"
BashTool-->>Agent: 成功
Agent->>EditTool: 创建 config/app.json
EditTool-->>Agent: 文件创建成功
Agent->>JSONTool: 设置 default.loglevel = "info"
JSONTool-->>Agent: JSON路径更新成功
Agent->>User: 任务完成,配置文件已创建并设置默认日志级别
实用场景示例
场景1:快速原型开发
# 创建一个简单的FastAPI应用
trae run -w ./fastapi-demo "创建一个FastAPI应用,包含用户CRUD接口"
# 输出
[blue]Changed working directory to: ./fastapi-demo[/blue]
[green]Trajectory saved to: ./trajectory_202509101234.json[/green]
# 查看生成的文件
ls ./fastapi-demo
# main.py requirements.txt tests/ Dockerfile
场景2:自动化测试与修复
trae run "运行测试套件,自动修复发现的问题" --must-patch -pp fixes.patch
# 输出
[blue]Running tests...[/blue]
[yellow]发现3个测试失败[/yellow]
[blue]尝试自动修复...[/blue]
[green]成功修复2个问题,生成补丁文件: fixes.patch[/green]
场景3:交互式代码重构
trae interactive -ct rich
# 在交互式界面中
> 重构User类,使用dataclass并添加类型注解
> 工作目录: ./src/models
> 确认重构范围: User类的所有方法
> [重构过程显示]
> [成功] User类已重构为dataclass并添加完整类型注解
故障排除与最佳实践
常见问题解决
| 问题 | 原因 | 解决方案 |
|---|---|---|
| Docker连接错误 | Docker服务未启动 | systemctl start docker (Linux) 或启动Docker Desktop (Windows/Mac) |
| API密钥错误 | 密钥无效或过期 | 检查配置文件中的API密钥,或设置环境变量 TRAE_API_KEY |
| 工具执行超时 | 命令执行时间过长 | 使用 --timeout 参数增加超时时间,或优化命令 |
| 配置文件未找到 | 未指定配置文件路径 | 使用 --config-file 指定配置文件,或创建默认配置 |
性能优化建议
- 选择合适的模型:复杂任务使用GPT-4,简单任务可使用更高效的模型如GPT-3.5-Turbo
# 指定轻量级模型处理简单任务
trae run -p openai -m gpt-3.5-turbo "格式化代码并添加注释"
-
合理设置工作目录:明确指定工作目录减少Agent的文件搜索范围
-
使用Docker模式:隔离不同项目的依赖环境,避免冲突
-
限制最大步骤:根据任务复杂度调整
--max-steps参数
# 复杂任务增加步骤限制
trae run --max-steps 30 "实现完整的用户认证系统"
总结与展望
Trae Agent CLI通过自然语言驱动软件开发流程,极大降低了复杂开发任务的门槛。本文介绍了其核心命令、高级功能和实用场景,帮助你快速上手这一强大工具。
随着LLM技术的不断发展,Trae Agent未来将支持更多开发场景和工具集成,包括:
- 多语言代码生成与优化
- 更智能的错误诊断与修复
- 团队协作功能与版本控制集成
- 自定义工具扩展机制
立即尝试Trae Agent CLI,体验AI驱动开发的全新方式:
# 开始你的第一个AI驱动开发任务
trae run "为你的项目创建一份详细的README.md"
收藏本文,关注项目更新,获取最新功能和最佳实践指南!
相关资源:
- 项目仓库:https://gitcode.com/gh_mirrors/tr/trae-agent
- 完整文档:docs/ 目录下的markdown文件
- 配置示例:trae_config.yaml.example
登录后查看全文
热门项目推荐
相关项目推荐
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
530
3.74 K
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
336
177
Ascend Extension for PyTorch
Python
338
401
React Native鸿蒙化仓库
JavaScript
302
355
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
885
595
暂无简介
Dart
770
191
华为昇腾面向大规模分布式训练的多模态大模型套件,支撑多模态生成、多模态理解。
Python
114
139
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
986
246