KubePi 在本地 k3s 集群中的数据持久化解决方案
问题背景
在使用 KubePi 管理本地 k3s 集群时,许多用户会遇到一个常见问题:当集群重启后,KubePi 中的所有配置和数据都会丢失。这是因为默认情况下,KubePi 将数据存储在容器内部的 /var/lib/kubepi/db 目录中,而容器重启后这些临时存储的数据就会消失。
问题分析
KubePi 作为 Kubernetes 集群的管理工具,会存储以下重要数据:
- 集群连接配置
- 用户权限设置
- 操作历史记录
- 其他管理相关数据
这些数据默认存储在容器内部,不具备持久性。对于生产环境或需要长期使用的场景,这种设计显然不能满足需求。
解决方案
要实现 KubePi 数据的持久化,我们需要使用 Kubernetes 的持久化存储机制。具体来说,就是为 KubePi 的 Deployment 挂载一个 PersistentVolumeClaim (PVC),将数据目录映射到持久化存储上。
实现步骤
- 创建持久化存储声明(PVC)
首先需要创建一个 PVC,指定存储大小和访问模式。对于本地 k3s 集群,可以使用local-path存储类:
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: kubepi-db-pvc
spec:
accessModes:
- ReadWriteOnce
storageClassName: local-path
resources:
requests:
storage: "1Gi"
- 修改 KubePi Deployment
在原有的 Deployment 配置中,添加对 PVC 的挂载:
apiVersion: apps/v1
kind: Deployment
metadata:
name: kubepi
spec:
template:
spec:
containers:
- name: kubepi
volumeMounts:
- name: kubepi-db-pvc
mountPath: /var/lib/kubepi/db
volumes:
- name: kubepi-db-pvc
persistentVolumeClaim:
claimName: kubepi-db-pvc
- 完整配置示例
结合上述两部分,完整的 KubePi 持久化部署配置如下:
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: kubepi-db-pvc
spec:
accessModes:
- ReadWriteOnce
storageClassName: local-path
resources:
requests:
storage: "1Gi"
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: kubepi
labels:
name: kubepi
spec:
replicas: 1
selector:
matchLabels:
name: kubepi
strategy:
rollingUpdate:
maxSurge: 1
maxUnavailable: 0
type: RollingUpdate
template:
metadata:
labels:
name: kubepi
spec:
containers:
- name: kubepi
image: 1panel/kubepi:v1.7.0
imagePullPolicy: IfNotPresent
ports:
- containerPort: 80
protocol: TCP
name: http
volumeMounts:
- mountPath: /etc/localtime
name: time
readOnly: true
- name: kubepi-db-pvc
mountPath: /var/lib/kubepi/db
volumes:
- name: time
hostPath:
path: /etc/localtime
- name: kubepi-db-pvc
persistentVolumeClaim:
claimName: kubepi-db-pvc
---
apiVersion: v1
kind: Service
metadata:
name: kubepi-svc
labels:
name: kubepi
spec:
selector:
name: kubepi
type: ClusterIP
ports:
- port: 80
targetPort: 80
技术要点解析
-
存储类选择
在本地 k3s 集群中,local-path是最常用的存储类,它会在节点上创建本地存储。对于生产环境,建议使用更可靠的存储方案,如 NFS 或云存储。 -
访问模式
ReadWriteOnce表示该卷可以被单个节点以读写方式挂载。对于单副本部署的 KubePi,这种模式完全够用。 -
存储大小
KubePi 的数据量通常不大,1Gi 的存储空间已经足够。如果管理大量集群或有大量操作记录,可以适当增加。 -
时区同步
配置中包含了/etc/localtime的挂载,确保容器内时间与宿主机一致。
验证与测试
部署完成后,可以通过以下步骤验证持久化是否生效:
- 登录 KubePi 并添加一些配置
- 删除 KubePi 的 Pod 让其自动重建
- 重新登录 KubePi,检查之前的配置是否仍然存在
如果一切正常,即使完全重启 k3s 集群,KubePi 中的数据也会得到保留。
总结
通过为 KubePi 配置持久化存储,我们解决了集群重启导致数据丢失的问题。这种方案不仅适用于本地 k3s 集群,稍作修改后也可以应用于各种 Kubernetes 环境。关键点在于正确配置 PVC 并将其挂载到 KubePi 的数据目录。
对于不同的 Kubernetes 环境,只需要调整存储类(storageClassName)和访问模式即可。生产环境中,建议使用网络存储方案以获得更好的可靠性和可扩展性。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00