Amazon EKS AMI 中预拉取容器镜像的实践与优化
2025-06-30 00:46:47作者:冯梦姬Eddie
前言
在 Amazon EKS 环境中,容器镜像的拉取时间往往成为影响应用启动速度的关键因素。特别是对于大型机器学习镜像,每次节点扩容时都需要重新拉取镜像,这显著增加了应用响应时间。本文将探讨如何在 Amazon EKS AMI 中预拉取容器镜像的实践方法及其优化效果。
技术背景
Amazon EKS 使用 containerd 作为容器运行时,其镜像存储在特定的命名空间中。默认情况下,Kubernetes 使用 k8s.io 命名空间来管理容器镜像。通过 Amazon EC2 Image Builder,我们可以在 AMI 构建阶段预先拉取所需的容器镜像,从而减少节点启动后的镜像拉取时间。
实现方案
1. Image Builder 模板设计
通过创建自定义的 Image Builder 模板,在 AMI 构建阶段执行容器镜像的预拉取操作。以下是关键步骤的实现:
name: ml-image-pull
description: 预拉取机器学习容器镜像
schemaVersion: 1.0
phases:
- name: build
steps:
- name: pull-ml-image
action: ExecuteBash
inputs:
commands:
- password=$(aws ecr get-login-password --region us-west-2)
- sudo ctr --namespace k8s.io images pull --user AWS:$password account_id.dkr.ecr.us-west-2.amazonaws.com/ml-image:latest > /dev/null
- sudo ctr --namespace k8s.io images list | grep ml-image
2. 关键参数说明
--namespace k8s.io:确保镜像被拉取到 Kubernetes 使用的 containerd 命名空间--user AWS:$password:提供 ECR 认证信息- 输出重定向:避免构建日志过大
3. 验证阶段
在测试阶段验证镜像是否成功预拉取:
- name: test
steps:
- name: confirm-ml-image-pulled
action: ExecuteBash
inputs:
commands:
- set -e
- sudo ctr --namespace k8s.io images list | grep ml-image
实践中的发现与优化
1. imagePullPolicy 的影响
预拉取的镜像能否被 Kubernetes 直接使用取决于 Pod 的 imagePullPolicy 设置:
- 当设置为
Always时,Kubelet 会忽略本地已存在的镜像,强制重新拉取 - 设置为
IfNotPresent时,Kubelet 会优先使用本地镜像
2. 性能考量
在实际测试中发现以下现象:
- 节点启动时间:使用预拉取镜像的 AMI 启动的节点比标准 AMI 慢约一倍
- 文件系统缓存:首次访问预拉取镜像中的文件时性能较差,后续访问恢复正常
3. 优化建议
- 权衡预拉取与启动时间:评估预拉取大镜像带来的启动时间增加是否值得
- 文件系统预热:考虑在 AMI 构建后执行文件系统预热操作
- 镜像标签策略:使用固定版本标签而非
latest,确保一致性
总结
在 Amazon EKS 环境中预拉取容器镜像可以显著减少应用启动时间,特别是对于大型镜像场景。然而,这一优化需要综合考虑多方面因素:
- 正确设置
imagePullPolicy - 评估预拉取对节点启动时间的影响
- 关注文件系统缓存行为
通过合理的配置和测试,这一技术可以成为优化 EKS 集群性能的有效手段之一,特别是在需要频繁扩容或使用大型容器镜像的场景中。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
项目优选
收起
deepin linux kernel
C
28
16
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
570
99
暂无描述
Dockerfile
709
4.51 K
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
958
955
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.61 K
942
Ascend Extension for PyTorch
Python
572
694
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
413
339
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.42 K
116
暂无简介
Dart
951
235
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
2