KubePi 在本地 k3s 集群中的数据持久化解决方案
问题背景
在使用 KubePi 管理本地 k3s 集群时,许多用户会遇到一个常见问题:当集群重启后,KubePi 中的所有配置和数据都会丢失。这是因为默认情况下,KubePi 将数据存储在容器内部的 /var/lib/kubepi/db 目录中,而容器重启后这些临时存储的数据就会消失。
问题分析
KubePi 作为 Kubernetes 集群的管理工具,会存储以下重要数据:
- 集群连接配置
- 用户权限设置
- 操作历史记录
- 其他管理相关数据
这些数据默认存储在容器内部,不具备持久性。对于生产环境或需要长期使用的场景,这种设计显然不能满足需求。
解决方案
要实现 KubePi 数据的持久化,我们需要使用 Kubernetes 的持久化存储机制。具体来说,就是为 KubePi 的 Deployment 挂载一个 PersistentVolumeClaim (PVC),将数据目录映射到持久化存储上。
实现步骤
- 创建持久化存储声明(PVC)
首先需要创建一个 PVC,指定存储大小和访问模式。对于本地 k3s 集群,可以使用local-path存储类:
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: kubepi-db-pvc
spec:
accessModes:
- ReadWriteOnce
storageClassName: local-path
resources:
requests:
storage: "1Gi"
- 修改 KubePi Deployment
在原有的 Deployment 配置中,添加对 PVC 的挂载:
apiVersion: apps/v1
kind: Deployment
metadata:
name: kubepi
spec:
template:
spec:
containers:
- name: kubepi
volumeMounts:
- name: kubepi-db-pvc
mountPath: /var/lib/kubepi/db
volumes:
- name: kubepi-db-pvc
persistentVolumeClaim:
claimName: kubepi-db-pvc
- 完整配置示例
结合上述两部分,完整的 KubePi 持久化部署配置如下:
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: kubepi-db-pvc
spec:
accessModes:
- ReadWriteOnce
storageClassName: local-path
resources:
requests:
storage: "1Gi"
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: kubepi
labels:
name: kubepi
spec:
replicas: 1
selector:
matchLabels:
name: kubepi
strategy:
rollingUpdate:
maxSurge: 1
maxUnavailable: 0
type: RollingUpdate
template:
metadata:
labels:
name: kubepi
spec:
containers:
- name: kubepi
image: 1panel/kubepi:v1.7.0
imagePullPolicy: IfNotPresent
ports:
- containerPort: 80
protocol: TCP
name: http
volumeMounts:
- mountPath: /etc/localtime
name: time
readOnly: true
- name: kubepi-db-pvc
mountPath: /var/lib/kubepi/db
volumes:
- name: time
hostPath:
path: /etc/localtime
- name: kubepi-db-pvc
persistentVolumeClaim:
claimName: kubepi-db-pvc
---
apiVersion: v1
kind: Service
metadata:
name: kubepi-svc
labels:
name: kubepi
spec:
selector:
name: kubepi
type: ClusterIP
ports:
- port: 80
targetPort: 80
技术要点解析
-
存储类选择
在本地 k3s 集群中,local-path是最常用的存储类,它会在节点上创建本地存储。对于生产环境,建议使用更可靠的存储方案,如 NFS 或云存储。 -
访问模式
ReadWriteOnce表示该卷可以被单个节点以读写方式挂载。对于单副本部署的 KubePi,这种模式完全够用。 -
存储大小
KubePi 的数据量通常不大,1Gi 的存储空间已经足够。如果管理大量集群或有大量操作记录,可以适当增加。 -
时区同步
配置中包含了/etc/localtime的挂载,确保容器内时间与宿主机一致。
验证与测试
部署完成后,可以通过以下步骤验证持久化是否生效:
- 登录 KubePi 并添加一些配置
- 删除 KubePi 的 Pod 让其自动重建
- 重新登录 KubePi,检查之前的配置是否仍然存在
如果一切正常,即使完全重启 k3s 集群,KubePi 中的数据也会得到保留。
总结
通过为 KubePi 配置持久化存储,我们解决了集群重启导致数据丢失的问题。这种方案不仅适用于本地 k3s 集群,稍作修改后也可以应用于各种 Kubernetes 环境。关键点在于正确配置 PVC 并将其挂载到 KubePi 的数据目录。
对于不同的 Kubernetes 环境,只需要调整存储类(storageClassName)和访问模式即可。生产环境中,建议使用网络存储方案以获得更好的可靠性和可扩展性。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C067
MiniMax-M2.1从多语言软件开发自动化到复杂多步骤办公流程执行,MiniMax-M2.1 助力开发者构建下一代自主应用——全程保持完全透明、可控且易于获取。Python00
kylin-wayland-compositorkylin-wayland-compositor或kylin-wlcom(以下简称kywc)是一个基于wlroots编写的wayland合成器。 目前积极开发中,并作为默认显示服务器随openKylin系统发布。 该项目使用开源协议GPL-1.0-or-later,项目中来源于其他开源项目的文件或代码片段遵守原开源协议要求。C01
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
agent-studioopenJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力TSX0130
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00