KubePi 在本地 k3s 集群中的数据持久化解决方案
问题背景
在使用 KubePi 管理本地 k3s 集群时,许多用户会遇到一个常见问题:当集群重启后,KubePi 中的所有配置和数据都会丢失。这是因为默认情况下,KubePi 将数据存储在容器内部的 /var/lib/kubepi/db 目录中,而容器重启后这些临时存储的数据就会消失。
问题分析
KubePi 作为 Kubernetes 集群的管理工具,会存储以下重要数据:
- 集群连接配置
- 用户权限设置
- 操作历史记录
- 其他管理相关数据
这些数据默认存储在容器内部,不具备持久性。对于生产环境或需要长期使用的场景,这种设计显然不能满足需求。
解决方案
要实现 KubePi 数据的持久化,我们需要使用 Kubernetes 的持久化存储机制。具体来说,就是为 KubePi 的 Deployment 挂载一个 PersistentVolumeClaim (PVC),将数据目录映射到持久化存储上。
实现步骤
- 创建持久化存储声明(PVC)
首先需要创建一个 PVC,指定存储大小和访问模式。对于本地 k3s 集群,可以使用local-path存储类:
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: kubepi-db-pvc
spec:
accessModes:
- ReadWriteOnce
storageClassName: local-path
resources:
requests:
storage: "1Gi"
- 修改 KubePi Deployment
在原有的 Deployment 配置中,添加对 PVC 的挂载:
apiVersion: apps/v1
kind: Deployment
metadata:
name: kubepi
spec:
template:
spec:
containers:
- name: kubepi
volumeMounts:
- name: kubepi-db-pvc
mountPath: /var/lib/kubepi/db
volumes:
- name: kubepi-db-pvc
persistentVolumeClaim:
claimName: kubepi-db-pvc
- 完整配置示例
结合上述两部分,完整的 KubePi 持久化部署配置如下:
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: kubepi-db-pvc
spec:
accessModes:
- ReadWriteOnce
storageClassName: local-path
resources:
requests:
storage: "1Gi"
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: kubepi
labels:
name: kubepi
spec:
replicas: 1
selector:
matchLabels:
name: kubepi
strategy:
rollingUpdate:
maxSurge: 1
maxUnavailable: 0
type: RollingUpdate
template:
metadata:
labels:
name: kubepi
spec:
containers:
- name: kubepi
image: 1panel/kubepi:v1.7.0
imagePullPolicy: IfNotPresent
ports:
- containerPort: 80
protocol: TCP
name: http
volumeMounts:
- mountPath: /etc/localtime
name: time
readOnly: true
- name: kubepi-db-pvc
mountPath: /var/lib/kubepi/db
volumes:
- name: time
hostPath:
path: /etc/localtime
- name: kubepi-db-pvc
persistentVolumeClaim:
claimName: kubepi-db-pvc
---
apiVersion: v1
kind: Service
metadata:
name: kubepi-svc
labels:
name: kubepi
spec:
selector:
name: kubepi
type: ClusterIP
ports:
- port: 80
targetPort: 80
技术要点解析
-
存储类选择
在本地 k3s 集群中,local-path是最常用的存储类,它会在节点上创建本地存储。对于生产环境,建议使用更可靠的存储方案,如 NFS 或云存储。 -
访问模式
ReadWriteOnce表示该卷可以被单个节点以读写方式挂载。对于单副本部署的 KubePi,这种模式完全够用。 -
存储大小
KubePi 的数据量通常不大,1Gi 的存储空间已经足够。如果管理大量集群或有大量操作记录,可以适当增加。 -
时区同步
配置中包含了/etc/localtime的挂载,确保容器内时间与宿主机一致。
验证与测试
部署完成后,可以通过以下步骤验证持久化是否生效:
- 登录 KubePi 并添加一些配置
- 删除 KubePi 的 Pod 让其自动重建
- 重新登录 KubePi,检查之前的配置是否仍然存在
如果一切正常,即使完全重启 k3s 集群,KubePi 中的数据也会得到保留。
总结
通过为 KubePi 配置持久化存储,我们解决了集群重启导致数据丢失的问题。这种方案不仅适用于本地 k3s 集群,稍作修改后也可以应用于各种 Kubernetes 环境。关键点在于正确配置 PVC 并将其挂载到 KubePi 的数据目录。
对于不同的 Kubernetes 环境,只需要调整存储类(storageClassName)和访问模式即可。生产环境中,建议使用网络存储方案以获得更好的可靠性和可扩展性。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00