Linkerd2 使用外部 Prometheus 监控数据持久化实践
2025-05-21 15:26:00作者:齐添朝
背景介绍
在 Kubernetes 服务网格 Linkerd2 的监控方案中,可视化组件 linkerd-viz 默认会部署一个内置的 Prometheus 实例。然而,这个内置实例存在数据无法持久化的问题,当 Pod 重启后历史监控数据就会丢失。本文将详细介绍如何配置 Linkerd2 使用外部 Prometheus 实现监控数据的持久化存储。
核心问题分析
Linkerd2 的 linkerd-viz 组件提供了服务网格的可观测性功能,包括路由指标、服务拓扑等。这些功能依赖于 Prometheus 采集和存储的指标数据。默认情况下,linkerd-viz 会部署一个非持久化的 Prometheus 实例,这会导致:
- 历史监控数据无法保留
- 无法进行长期趋势分析
- 重启后所有指标数据丢失
解决方案实施
1. 部署外部 Prometheus
使用 Helm 部署一个持久化的 Prometheus 实例到 linkerd-viz 命名空间:
server:
podAnnotations:
linkerd.io/inject: enabled
global:
scrape_interval: 10s
scrape_timeout: 10s
evaluation_interval: 10s
service:
servicePort: 9090
persistentVolume:
size: 20Gi
serverFiles:
prometheus.yml:
scrape_configs:
- job_name: 'linkerd-controller'
kubernetes_sd_configs:
- role: pod
namespaces:
names:
- 'linkerd'
- 'linkerd-viz'
relabel_configs:
- source_labels:
- __meta_kubernetes_pod_container_port_name
action: keep
regex: admin-http
- source_labels: [__meta_kubernetes_pod_container_name]
action: replace
target_label: component
- job_name: 'linkerd-service-mirror'
kubernetes_sd_configs:
- role: pod
relabel_configs:
- source_labels:
- __meta_kubernetes_pod_label_linkerd_io_control_plane_component
- __meta_kubernetes_pod_container_port_name
action: keep
regex: linkerd-service-mirror;admin-http$
- source_labels: [__meta_kubernetes_pod_container_name]
action: replace
target_label: component
- job_name: 'linkerd-proxy'
kubernetes_sd_configs:
- role: pod
relabel_configs:
- source_labels:
- __meta_kubernetes_pod_container_name
- __meta_kubernetes_pod_container_port_name
- __meta_kubernetes_pod_label_linkerd_io_control_plane_ns
action: keep
regex: ^linkerd-proxy;linkerd-admin;linkerd$
- source_labels: [__meta_kubernetes_namespace]
action: replace
target_label: namespace
- source_labels: [__meta_kubernetes_pod_name]
action: replace
target_label: pod
- source_labels: [__meta_kubernetes_pod_label_linkerd_io_proxy_job]
action: replace
target_label: k8s_job
- action: labeldrop
regex: __meta_kubernetes_pod_label_linkerd_io_proxy_job
- action: labelmap
regex: __meta_kubernetes_pod_label_linkerd_io_proxy_(.+)
- action: labeldrop
regex: __meta_kubernetes_pod_label_linkerd_io_proxy_(.+)
- action: labelmap
regex: __meta_kubernetes_pod_label_linkerd_io_(.+)
- action: labelmap
regex: __meta_kubernetes_pod_label_(.+)
replacement: __tmp_pod_label_$1
- action: labelmap
regex: __tmp_pod_label_linkerd_io_(.+)
replacement: __tmp_pod_label_$1
- action: labeldrop
regex: __tmp_pod_label_linkerd_io_(.+)
- action: labelmap
regex: __tmp_pod_label_(.+)
关键配置说明:
- 启用了持久化存储(20Gi)
- 配置了 Linkerd 特有的抓取规则
- 设置了合理的抓取间隔
- 确保服务端口与容器端口一致(9090)
2. 配置 Linkerd Viz 使用外部 Prometheus
修改 linkerd-viz 的 Helm 配置:
prometheus:
enabled: false
prometheusUrl: "http://prometheus-server.linkerd-viz.svc.cluster.local:9090"
3. 安全策略配置
为确保安全访问,需要配置适当的 Server 和 AuthorizationPolicy:
apiVersion: policy.linkerd.io/v1beta3
kind: Server
metadata:
name: prometheus-server-admin
namespace: linkerd-viz
spec:
accessPolicy: deny
podSelector:
matchLabels:
app.kubernetes.io/component: server
app.kubernetes.io/instance: prometheus
app.kubernetes.io/name: prometheus
port: 9090
proxyProtocol: HTTP/1
apiVersion: policy.linkerd.io/v1alpha1
kind: AuthorizationPolicy
metadata:
name: prometheus-server-admin
namespace: linkerd-viz
spec:
requiredAuthenticationRefs:
- kind: ServiceAccount
name: metrics-api
namespace: linkerd-viz
targetRef:
group: policy.linkerd.io
kind: Server
name: prometheus-server-admin
4. 扩展 MeshTLSAuthentication
更新 allow-viz 策略以包含 Prometheus 相关身份:
apiVersion: policy.linkerd.io/v1alpha1
kind: MeshTLSAuthentication
metadata:
name: linkerd-viz
namespace: linkerd-viz
spec:
identities:
- "tap.linkerd-viz.serviceaccount.identity.linkerd.cluster.local"
- "prometheus.linkerd-viz.serviceaccount.identity.linkerd.cluster.local"
- "prometheus-server.linkerd-viz.serviceaccount.identity.linkerd.cluster.local"
验证与调试
完成配置后,需要进行以下验证:
- 检查 Prometheus 目标状态是否健康
- 确认 linkerd viz dashboard 显示正常
- 测试 linkerd viz routes 命令功能
- 检查各组件日志是否有错误
常见问题排查点:
- Prometheus 配置必须放在 serverFiles 下而非 server
- 确保服务端口配置正确
- 检查网络策略是否允许必要通信
- 验证身份认证配置是否正确
最佳实践建议
- 根据集群规模调整 Prometheus 的存储大小
- 考虑设置适当的保留策略
- 定期备份 Prometheus 数据
- 监控 Prometheus 资源使用情况
- 考虑使用 Thanos 或 Cortex 实现长期存储
通过以上配置,Linkerd2 的监控数据将持久化存储在外部 Prometheus 中,既保留了 Linkerd 提供的丰富监控功能,又解决了数据持久化问题,为服务网格的长期运行监控提供了可靠保障。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust067- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00
项目优选
收起
暂无描述
Dockerfile
687
4.45 K
Ascend Extension for PyTorch
Python
540
664
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
379
66
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
406
322
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
953
918
Oohos_react_native
React Native鸿蒙化仓库
C++
336
385
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.58 K
923
暂无简介
Dart
935
234
华为昇腾面向大规模分布式训练的多模态大模型套件,支撑多模态生成、多模态理解。
Python
135
216
昇腾LLM分布式训练框架
Python
145
172