Google Gemini CLI 可观测性指南:深入理解与配置实践
什么是 CLI 可观测性
在开发和使用命令行工具时,了解工具的运行状态、性能表现和使用情况至关重要。Google Gemini CLI 提供了完善的遥测(Telemetry)系统,通过收集和分析运行数据,帮助开发者监控操作、调试问题并优化工具使用体验。
技术架构解析
Gemini CLI 的遥测系统基于 OpenTelemetry(简称 OTEL)标准构建,这是一个云原生计算基金会(CNCF)孵化的开源项目,为生成、收集和管理遥测数据提供了一套统一的标准。这种架构设计带来了几个关键优势:
- 标准化:遵循行业标准,确保数据格式的统一性
- 灵活性:支持将数据发送到任何兼容 OTEL 的后端系统
- 可扩展性:可以轻松集成各种监控和分析工具
配置遥测系统
配置优先级体系
Gemini CLI 提供了多层次的配置方式,按照优先级从高到低依次为:
-
命令行参数:即时生效,适合临时调试
--telemetry/--no-telemetry:开关遥测功能--telemetry-target:指定目标后端(local 或 gcp)--telemetry-otlp-endpoint:自定义 OTLP 端点
-
环境变量:适合系统级配置
OTEL_EXPORTER_OTLP_ENDPOINT:覆盖 OTLP 端点
-
项目级设置文件(.gemini/settings.json):针对特定项目的配置
-
用户级设置文件(~/.gemini/settings.json):全局用户配置
-
默认值:当以上都未设置时使用
典型配置示例
要启用遥测并将数据发送到 Google Cloud,可以在设置文件中添加:
{
"telemetry": {
"enabled": true,
"target": "gcp"
},
"sandbox": false
}
部署 OTEL 收集器
OTEL 收集器是遥测系统的核心组件,负责接收、处理和导出数据。Gemini CLI 使用 OTLP/gRPC 协议发送数据。
本地部署方案
本地部署适合开发和调试场景,可以快速查看运行数据:
-
启动服务:
npm run telemetry -- --target=local这个命令会自动完成以下工作:
- 下载并启动 Jaeger(用于可视化追踪数据)
- 配置并启动 OTEL 收集器
- 自动启用项目遥测设置
-
查看数据:
- 追踪数据:访问 http://localhost:16686
- 日志和指标:查看 ~/.gemini/tmp/otel/collector.log
-
停止服务:在运行终端按 Ctrl+C
Google Cloud 集成方案
生产环境推荐使用 Google Cloud 方案:
-
准备工作:
- 设置 Google Cloud 项目 ID
export OTLP_GOOGLE_CLOUD_PROJECT="your-project-id"- 确保认证信息正确配置
- 确认账户具备必要的 IAM 权限
-
启动服务:
npm run telemetry -- --target=gcp -
查看数据: 脚本会提供直接访问 Google Cloud Console 的链接
数据模型详解
日志记录
Gemini CLI 会记录多种类型的日志事件,每种事件都包含特定的属性:
-
配置日志(gemini_cli.config):
- 记录 CLI 启动时的配置状态
- 包含模型选择、沙盒模式等关键配置项
-
用户提示日志(gemini_cli.user_prompt):
- 记录用户输入的提示词
- 可通过 log_prompts_enabled 控制是否记录实际内容
-
工具调用日志(gemini_cli.tool_call):
- 详细记录每个函数调用的执行情况
- 包含执行时间、结果状态等信息
-
API 交互日志:
- 记录与 Gemini API 的所有交互
- 包括请求、响应和错误三种类型
性能指标
Gemini CLI 收集的指标数据分为几大类:
-
会话指标:
- gemini_cli.session.count:会话启动次数
-
工具调用指标:
- 调用次数(gemini_cli.tool.call.count)
- 调用延迟(gemini_cli.tool.call.latency)
-
API 交互指标:
- 请求次数(gemini_cli.api.request.count)
- 请求延迟(gemini_cli.api.request.latency)
-
资源使用指标:
- 令牌使用情况(gemini_cli.token.usage)
- 文件操作统计(gemini_cli.file.operation.count)
最佳实践建议
- 开发阶段:使用本地 Jaeger 方案,便于快速调试
- 生产环境:采用 Google Cloud 方案,确保数据持久化和集中管理
- 敏感信息:通过 log_prompts_enabled 控制是否记录用户提示内容
- 性能监控:重点关注 API 请求延迟和令牌使用指标
- 错误分析:利用错误日志中的 error_type 和 status_code 进行归类统计
通过合理配置和使用 Gemini CLI 的遥测系统,开发者可以全面掌握工具运行状况,快速定位问题,并基于数据不断优化使用体验。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
GLM-4.7-FlashGLM-4.7-Flash 是一款 30B-A3B MoE 模型。作为 30B 级别中的佼佼者,GLM-4.7-Flash 为追求性能与效率平衡的轻量化部署提供了全新选择。Jinja00
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin07
compass-metrics-modelMetrics model project for the OSS CompassPython00