Rook CephFS PVC 在禁用认证时卡在 Pending 状态问题解析
问题背景
在使用 Rook 部署的 Ceph 集群中,当管理员尝试通过修改 Ceph 配置文件来禁用客户端认证时,可能会遇到 CephFS 类型的 Persistent Volume Claim (PVC) 无法正常创建的问题。具体表现为 PVC 长时间处于 Pending 状态,并报错"Operation not supported"。
问题现象
当在 Ceph 配置中将以下三个认证参数设置为 none 时:
auth_client_required = none
auth_cluster_required = none
auth_service_required = none
创建 CephFS PVC 会出现如下错误:
Warning ProvisioningFailed failed to provision volume with StorageClass "cephfs-show": rpc error: code = InvalidArgument desc = failed to get connection: connecting failed: rados: ret=-95, Operation not supported
根本原因
经过深入分析,发现这个问题主要由两个关键因素导致:
-
配置未正确传递:虽然管理员在 rook-config-override ConfigMap 中设置了认证参数为 none,但这些配置并未正确传递到 CSI 驱动使用的配置文件中。
-
CSI 驱动依赖:Rook 的 CephFS CSI 驱动在创建卷时会读取 /etc/ceph/ceph.conf 文件中的配置,如果该文件中仍然保持默认的 cephx 认证设置,就会导致连接失败。
解决方案
要解决这个问题,需要确保配置正确应用到所有相关组件:
-
创建正确的 ConfigMap:不仅需要创建 rook-config-override,还需要专门为 CSI 驱动创建 csi-ceph-conf-override ConfigMap。
-
重启相关组件:创建或修改 ConfigMap 后,需要重启 Rook Operator 以应用新的配置。
-
验证配置传播:通过以下方式确认配置已正确应用:
- 检查 mon 容器中的配置
- 检查 csi-cephfsplugin 容器中的 /etc/ceph/ceph.conf 文件
最佳实践
-
配置管理:对于 Ceph 集群的配置修改,建议同时更新 rook-config-override 和 csi-ceph-conf-override 两个 ConfigMap。
-
变更顺序:
- 先创建或更新 ConfigMap
- 然后重启 Rook Operator
- 最后验证 CSI 驱动是否加载了新配置
-
认证选择:除非有特殊需求,否则建议保持 cephx 认证启用状态,这是 Ceph 集群的安全最佳实践。
技术细节
当 Ceph 认证被禁用时,CSI 驱动需要能够正确处理无认证的连接请求。这涉及到 Rook 的配置管理机制和 CSI 驱动的实现细节:
- Rook Operator 负责将集群配置传播到各个组件
- CSI 驱动需要能够读取最新的配置信息
- 配置变更需要触发相关组件的重新加载
通过理解这些组件间的交互关系,可以更好地诊断和解决类似问题。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00