KServe中initial-scale配置对滚动更新的影响分析
在KServe项目的最新版本中,一个关于initial-scale参数的配置变更引发了滚动更新功能的异常。这个参数原本在Knative Serving中用于控制服务初始部署时的副本数量,其默认值为1。但在KServe的某个PR中被修改为与minReplicas保持一致,这直接影响了系统的核心部署机制。
技术背景方面,Knative Serving的自动扩缩系统(PA)会基于initial-scale和minReplicas两个参数来决定服务初始部署的副本数量。根据官方设计,系统会选择两者中的较大值作为初始目标副本数。当initial-scale保持默认值1时,系统会先启动1个Pod,待其就绪后,再由PA控制器根据minReplicas配置逐步扩容到所需的最小副本数。
这个看似简单的参数变更带来了两个层面的问题:
首先,对于使用渐进式滚动更新扩展的用户来说,该变更完全破坏了更新流程。渐进式更新需要分阶段逐步增加新版本的副本数量,如果初始就直接部署minReplicas数量的Pod,就失去了分阶段控制的能力。这会导致系统资源被一次性大量占用,且无法实现平滑过渡。
其次,即使在常规部署场景下,该变更也增加了部署风险。当initial-scale为1时,如果Pod启动失败,系统只会占用1个Pod的资源。但若initial-scale等于minReplicas,所有最小要求的Pod都会立即创建,一旦发生故障(如CLBO错误),将造成大量资源被无效占用,这对GPU等昂贵资源尤为不利。
经过社区讨论,项目团队决定恢复initial-scale的默认值为1。这个决定不仅保证了渐进式更新扩展的正常工作,也维持了系统在异常情况下的资源使用效率。对于需要特殊初始规模的场景,用户仍可通过显式配置来覆盖默认值。
这个案例很好地展示了配置参数间的微妙关系,以及默认值选择对系统行为的重要影响。在分布式系统中,类似initial-scale这样的基础参数往往与多个功能模块存在隐式耦合,变更时需要全面考虑各种使用场景和扩展组件的兼容性。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00