Google Gemini CLI 可观测性指南:深入理解与配置实践
什么是 CLI 可观测性
在开发和使用命令行工具时,了解工具的运行状态、性能表现和使用情况至关重要。Google Gemini CLI 提供了完善的遥测(Telemetry)系统,通过收集和分析运行数据,帮助开发者监控操作、调试问题并优化工具使用体验。
技术架构解析
Gemini CLI 的遥测系统基于 OpenTelemetry(简称 OTEL)标准构建,这是一个云原生计算基金会(CNCF)孵化的开源项目,为生成、收集和管理遥测数据提供了一套统一的标准。这种架构设计带来了几个关键优势:
- 标准化:遵循行业标准,确保数据格式的统一性
- 灵活性:支持将数据发送到任何兼容 OTEL 的后端系统
- 可扩展性:可以轻松集成各种监控和分析工具
配置遥测系统
配置优先级体系
Gemini CLI 提供了多层次的配置方式,按照优先级从高到低依次为:
-
命令行参数:即时生效,适合临时调试
--telemetry/--no-telemetry:开关遥测功能--telemetry-target:指定目标后端(local 或 gcp)--telemetry-otlp-endpoint:自定义 OTLP 端点
-
环境变量:适合系统级配置
OTEL_EXPORTER_OTLP_ENDPOINT:覆盖 OTLP 端点
-
项目级设置文件(.gemini/settings.json):针对特定项目的配置
-
用户级设置文件(~/.gemini/settings.json):全局用户配置
-
默认值:当以上都未设置时使用
典型配置示例
要启用遥测并将数据发送到 Google Cloud,可以在设置文件中添加:
{
"telemetry": {
"enabled": true,
"target": "gcp"
},
"sandbox": false
}
部署 OTEL 收集器
OTEL 收集器是遥测系统的核心组件,负责接收、处理和导出数据。Gemini CLI 使用 OTLP/gRPC 协议发送数据。
本地部署方案
本地部署适合开发和调试场景,可以快速查看运行数据:
-
启动服务:
npm run telemetry -- --target=local这个命令会自动完成以下工作:
- 下载并启动 Jaeger(用于可视化追踪数据)
- 配置并启动 OTEL 收集器
- 自动启用项目遥测设置
-
查看数据:
- 追踪数据:访问 http://localhost:16686
- 日志和指标:查看 ~/.gemini/tmp/otel/collector.log
-
停止服务:在运行终端按 Ctrl+C
Google Cloud 集成方案
生产环境推荐使用 Google Cloud 方案:
-
准备工作:
- 设置 Google Cloud 项目 ID
export OTLP_GOOGLE_CLOUD_PROJECT="your-project-id"- 确保认证信息正确配置
- 确认账户具备必要的 IAM 权限
-
启动服务:
npm run telemetry -- --target=gcp -
查看数据: 脚本会提供直接访问 Google Cloud Console 的链接
数据模型详解
日志记录
Gemini CLI 会记录多种类型的日志事件,每种事件都包含特定的属性:
-
配置日志(gemini_cli.config):
- 记录 CLI 启动时的配置状态
- 包含模型选择、沙盒模式等关键配置项
-
用户提示日志(gemini_cli.user_prompt):
- 记录用户输入的提示词
- 可通过 log_prompts_enabled 控制是否记录实际内容
-
工具调用日志(gemini_cli.tool_call):
- 详细记录每个函数调用的执行情况
- 包含执行时间、结果状态等信息
-
API 交互日志:
- 记录与 Gemini API 的所有交互
- 包括请求、响应和错误三种类型
性能指标
Gemini CLI 收集的指标数据分为几大类:
-
会话指标:
- gemini_cli.session.count:会话启动次数
-
工具调用指标:
- 调用次数(gemini_cli.tool.call.count)
- 调用延迟(gemini_cli.tool.call.latency)
-
API 交互指标:
- 请求次数(gemini_cli.api.request.count)
- 请求延迟(gemini_cli.api.request.latency)
-
资源使用指标:
- 令牌使用情况(gemini_cli.token.usage)
- 文件操作统计(gemini_cli.file.operation.count)
最佳实践建议
- 开发阶段:使用本地 Jaeger 方案,便于快速调试
- 生产环境:采用 Google Cloud 方案,确保数据持久化和集中管理
- 敏感信息:通过 log_prompts_enabled 控制是否记录用户提示内容
- 性能监控:重点关注 API 请求延迟和令牌使用指标
- 错误分析:利用错误日志中的 error_type 和 status_code 进行归类统计
通过合理配置和使用 Gemini CLI 的遥测系统,开发者可以全面掌握工具运行状况,快速定位问题,并基于数据不断优化使用体验。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00