【亲测免费】 HAMi 项目使用教程
1. 项目介绍
HAMi(Heterogeneous AI Computing Virtualization Middleware)是一个用于 Kubernetes 的异构设备管理中间件。它能够管理不同类型的异构设备(如 GPU、NPU 等),并在 Pod 之间共享这些设备,基于设备的拓扑结构和调度策略做出更好的调度决策。HAMi 旨在消除不同异构设备之间的差距,为用户提供一个统一的接口来管理这些设备,而无需更改应用程序。
HAMi 项目由多个组件组成,包括统一的 mutating webhook、统一的调度器扩展器、不同的设备插件以及针对每种异构 AI 设备的容器内虚拟化技术。
2. 项目快速启动
2.1 环境准备
在开始之前,请确保满足以下前提条件:
- NVIDIA 驱动版本 >= 440
- nvidia-docker 版本 > 2.0
- 容器运行时(如 containerd、docker、cri-o)的默认运行时为 nvidia
- Kubernetes 版本 >= 1.16
- glibc >= 2.17 & glibc < 2.3.0
- 内核版本 >= 3.10
- Helm > 3.0
2.2 安装步骤
-
标记 GPU 节点: 首先,标记你的 GPU 节点以便 HAMi 进行调度管理。通过添加标签
gpu=on来标记节点。kubectl label nodes [nodeid] gpu=on -
添加 Helm 仓库: 添加 HAMi 的 Helm 仓库。
helm repo add hami-charts https://project-hami.github.io/HAMi/ -
检查 Kubernetes 版本: 使用以下命令检查你的 Kubernetes 版本。
kubectl version -
安装 HAMi: 根据你的 Kubernetes 服务器版本,设置调度器镜像版本。例如,如果你的集群服务器版本是 1.16.8,使用以下命令进行部署:
helm install hami hami-charts/hami --set scheduler.kubeScheduler.imageTag=v1.16.8 -n kube-system -
验证安装: 使用以下命令验证安装是否成功。如果
vgpu-device-plugin和vgpu-schedulerPod 都处于 Running 状态,则安装成功。kubectl get pods -n kube-system
3. 应用案例和最佳实践
3.1 设备共享
HAMi 支持设备共享,允许通过指定设备内存和核心使用来部分分配设备。例如,一个任务可以请求 1 个 vGPU 和 3000m 的设备内存:
resources:
limits:
nvidia.com/gpu: 1
nvidia.com/gpumem: 3000
3.2 设备资源隔离
HAMi 提供了设备资源隔离功能,确保不同任务之间的资源不会相互干扰。例如,一个任务请求 1 个 vGPU 和 3000m 的设备内存,容器内将看到 3G 的设备内存。
4. 典型生态项目
4.1 Kubernetes
HAMi 是基于 Kubernetes 的异构设备管理中间件,与 Kubernetes 生态紧密结合。通过 HAMi,Kubernetes 可以更好地管理和调度异构设备,提升集群的资源利用率。
4.2 NVIDIA GPU
HAMi 支持 NVIDIA GPU 的虚拟化和共享,使得多个 Pod 可以共享同一个 GPU,提高 GPU 的利用率。这对于需要大量 GPU 资源的 AI 训练和推理任务尤为重要。
4.3 其他异构设备
除了 GPU,HAMi 还支持其他类型的异构设备,如 NPU 等。通过 HAMi,用户可以统一管理这些设备,无需为每种设备编写单独的管理代码。
通过以上步骤,你可以快速启动并使用 HAMi 项目,实现异构设备的虚拟化和共享,提升 Kubernetes 集群的资源利用率。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00