Kubespray项目中kubelet-csr-approver离线安装方案探讨
在Kubernetes集群部署过程中,kubelet-csr-approver组件扮演着重要角色,它负责自动批准kubelet的证书签名请求(CSR)。然而,在某些生产环境中,由于网络安全策略限制,无法直接从外部Helm仓库获取该组件,这就带来了离线安装的挑战。
离线安装的核心问题
传统上,kubelet-csr-approver通过Helm chart方式部署,这要求部署环境能够访问外部的Helm仓库。但在严格管控的生产环境中,这种依赖外部网络的方式往往不可行。企业通常要求所有部署组件必须预先打包为内部可用的形式,不能有实时下载外部资源的行为。
可行的解决方案
针对这一限制,可以采用自建Helm仓库的方案。具体实施步骤如下:
-
准备Helm工具:首先需要确保部署环境中具备Helm命令行工具。可以通过内部文件服务器提供Helm的二进制包,避免从互联网下载。
-
建立内部Helm仓库:搭建一个简单的HTTP服务器(如Nginx)作为内部Helm仓库。这个仓库需要包含两个关键部分:
- kubelet-csr-approver的Helm chart包
- 描述chart信息的index.yaml文件
-
获取chart资源:从kubelet-csr-approver官方项目获取最新的Helm chart包和index.yaml文件,将这些资源放入自建的内部Helm仓库中。
-
证书配置:为确保安全性,内部Helm仓库应该启用TLS加密。需要确保Kubernetes集群的所有节点都信任该仓库使用的证书。
-
配置部署参数:在Kubespray的配置中,将helm_repo和kubelet_csr_approver_repository_url指向自建的内部仓库地址。
实施注意事项
在实际操作中,还需要考虑以下技术细节:
- 版本管理:定期更新内部仓库中的chart版本,确保与官方版本同步
- 网络访问控制:确保集群节点能够访问内部Helm仓库的网络端口
- 存储空间:为内部仓库预留足够的存储空间,特别是当需要托管多个chart时
- 备份策略:对内部Helm仓库实施定期备份,防止数据丢失
替代方案评估
除了自建Helm仓库外,还可以考虑以下替代方案:
- 手动安装:完全脱离Helm,通过kubectl直接部署组件所需的Kubernetes资源
- 容器镜像预拉取:预先将相关容器镜像拉取到内部镜像仓库
- 全包部署:将整个Kubespray及其所有依赖打包为一个完整的离线安装包
每种方案都有其适用场景和优缺点,需要根据具体环境的安全要求和运维能力进行选择。
总结
在受限网络环境中部署kubelet-csr-approver组件确实带来了额外挑战,但通过建立内部Helm仓库的方案,可以很好地平衡安全要求和功能需求。这种方案不仅适用于kubelet-csr-approver,也可以推广到其他需要通过Helm部署的Kubernetes组件,为企业在严格管控环境下的Kubernetes集群部署提供了可行路径。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C092
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00