在kube-hetzner中实现Longhorn存储路径自定义配置
2025-06-27 21:20:31作者:殷蕙予
背景介绍
kube-hetzner是一个使用Terraform在Hetzner Cloud上部署Kubernetes集群的项目。Longhorn作为Kubernetes的分布式块存储系统,常被用于提供持久化存储解决方案。在默认配置中,Longhorn使用固定的存储路径/var/longhorn,这限制了用户在不同类型存储设备(如NVMe和SSD)上灵活部署的能力。
问题分析
默认情况下,Longhorn模块将磁盘挂载路径硬编码为/var/longhorn,这带来了几个限制:
- 无法在同一集群中同时使用不同类型的存储设备
- 无法根据实际硬件配置优化存储路径
- 缺乏灵活性,难以适应特殊部署需求
解决方案
通过修改Terraform配置,我们可以实现Longhorn存储路径的自定义配置。以下是关键实现步骤:
1. 创建Hetzner Cloud卷
首先使用Terraform的hcloud_volume资源创建存储卷,注意这里我们为每个agent节点创建独立的卷:
resource "hcloud_volume" "longhorn_volume" {
for_each = { for k, v in local.agent_nodes : k => v if((v.longhorn_volume_size >= 10) && (v.longhorn_volume_size <= 10240) && var.enable_longhorn) }
name = "${var.cluster_name}-longhorn-${module.agents[each.key].name}"
size = local.agent_nodes[each.key].longhorn_volume_size
server_id = module.agents[each.key].id
automount = true
format = var.longhorn_fstype
delete_protection = var.enable_delete_protection.volume
}
2. 配置挂载点和文件系统
使用null_resource和remote-exec配置挂载点和文件系统:
resource "null_resource" "configure_longhorn_volume" {
for_each = { for k, v in local.agent_nodes : k => v if((v.longhorn_volume_size >= 10) && (v.longhorn_volume_size <= 10240) && var.enable_longhorn) }
provisioner "remote-exec" {
inline = [
"mkdir /var/longhorn >/dev/null 2>&1",
"mount -o discard,defaults ${hcloud_volume.longhorn_volume[each.key].linux_device} ${var.mount_path}",
"${var.longhorn_fstype == "ext4" ? "resize2fs" : "xfs_growfs"} ${hcloud_volume.longhorn_volume[each.key].linux_device}",
"echo '${hcloud_volume.longhorn_volume[each.key].linux_device} ${var.mount_path} ${var.longhorn_fstype} discard,nofail,defaults 0 0' >> /etc/fstab"
]
}
}
3. 关键配置参数
实现灵活配置的关键在于以下几个参数:
var.mount_path- 允许用户自定义挂载路径var.longhorn_fstype- 支持不同的文件系统类型(ext4/xfs)- 条件判断 - 根据节点配置动态创建资源
实现效果
通过这种配置方式,我们可以实现:
- 在同一集群中创建多个存储类,分别对应不同类型的存储设备
- 根据实际硬件性能优化存储路径
- 更灵活地管理存储资源,提高资源利用率
- 支持存储卷的动态扩展和配置变更
最佳实践建议
- 对于高性能NVMe设备,建议挂载到
/mnt/nvme等专用路径 - 对于普通SSD设备,可以使用默认的
/var/longhorn路径 - 根据工作负载特点,合理分配不同类型的存储资源
- 定期检查存储使用情况,及时调整存储配置
这种灵活的存储路径配置方案,使得kube-hetzner项目能够更好地适应不同规模和性能需求的Kubernetes集群部署场景。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
FreeSql功能强大的对象关系映射(O/RM)组件,支持 .NET Core 2.1+、.NET Framework 4.0+、Xamarin 以及 AOT。C#00
项目优选
收起
deepin linux kernel
C
27
14
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
658
4.26 K
Ascend Extension for PyTorch
Python
502
606
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
939
862
Oohos_react_native
React Native鸿蒙化仓库
JavaScript
334
378
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
390
284
AscendNPU-IR是基于MLIR(Multi-Level Intermediate Representation)构建的,面向昇腾亲和算子编译时使用的中间表示,提供昇腾完备表达能力,通过编译优化提升昇腾AI处理器计算效率,支持通过生态框架使能昇腾AI处理器与深度调优
C++
123
195
openGauss kernel ~ openGauss is an open source relational database management system
C++
180
258
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.54 K
892
昇腾LLM分布式训练框架
Python
142
168