KWOK项目支持KubeVirt虚拟机实例的无kubelet运行方案解析
在云原生技术快速发展的今天,Kubernetes已成为容器编排的事实标准。作为Kubernetes生态中的重要项目,KWOK(Kubernetes Without Kubelet)提供了一个轻量级的Kubernetes模拟环境,特别适合开发和测试场景。近期,社区提出了一个创新性的需求:让KWOK支持KubeVirt的虚拟机实例(VMI)在无需kubelet的情况下运行。
背景与挑战
KubeVirt是一个Kubernetes的扩展,允许用户在Kubernetes集群中运行和管理虚拟机。它通过自定义资源VirtualMachineInstance(VMI)来实现这一功能。在传统部署中,KubeVirt依赖于节点上的virt-handler组件(类似于kubelet)来管理虚拟机实例的生命周期。
然而,在KWOK环境中,由于没有实际的kubelet运行,virt-handler组件自然也不存在。这就导致了一个关键问题:当用户创建VMI并调度到KWOK节点时,虽然对应的virt-launcher Pod能够进入Running状态,但VMI本身会卡在Scheduling状态,因为缺少virt-handler来更新VMI的运行状态。
技术方案设计
针对这一挑战,社区提出了一个创新的解决方案,主要包含以下几个关键点:
-
引入VMI控制器:在KWOK中新增一个VMIController,类似于现有的Pod控制器。这个控制器将负责监控VMI资源的状态变化。
-
阶段配置文件:设计一种阶段配置文件(Stage File),用于指导VMI控制器如何协调VMI对象。这个文件可以定义状态转换的条件和时间延迟。
-
权限模拟机制:由于KubeVirt的安全设计,直接更新VMI状态会受到限制。解决方案中引入了impersonation(身份模拟)机制,让KWOK控制器能够以virt-handler或virt-controller服务账户的身份来更新VMI状态。
实现细节
在具体实现上,方案提出了对KWOK Stage API的扩展:
apiVersion: kwok.x-k8s.io/v1alpha1
kind: Stage
metadata:
name: vmi-example
spec:
resourceRef:
apiGroup: kubevirt.io/v1
kind: VirtualMachineInstance
nodeNameMatchExpressions: '.status.nodeName'
isStatusSubresource: false
impersonationConfig:
username: 'system:serviceaccount:kubevirt:kubevirt-controller'
这个配置的关键点包括:
nodeNameMatchExpressions:用于匹配调度到KWOK节点的VMIisStatusSubresource:标记VMI状态不是子资源impersonationConfig:配置模拟的服务账户身份
验证与测试
验证这一方案需要以下步骤:
- 获取kubevirt-controller的服务账户令牌
- 配置kubectl使用该令牌
- 测试VMI状态更新功能
- 确认VMI状态成功转变为Running
技术意义
这一方案的实现将为KubeVirt社区带来重要价值:
- 测试便利性:使KubeVirt的规模测试能够在轻量级的KWOK环境中进行
- 开发效率:加速KubeVirt功能的开发和验证周期
- 资源节约:减少测试环境对实际计算资源的需求
未来展望
随着这一功能的实现,KWOK将不仅支持标准Pod的模拟,还能支持更复杂的自定义资源。这为KWOK在更多场景下的应用打开了可能性,包括但不限于:
- 其他Kubernetes Operator的测试
- 自定义工作负载的模拟
- 混合部署环境(容器和虚拟机共存)的开发和测试
这一创新也体现了Kubernetes生态系统的灵活性和可扩展性,展示了不同项目间如何通过协作来解决复杂的技术挑战。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00