Replicated Ship 项目使用教程
1. 项目介绍
Replicated Ship 是一个用于部署 Kubernetes Helm 图表的工具,旨在简化 Kubernetes 应用的部署和自动化维护。Ship 能够跟踪和自动化第三方应用程序的维护,无论是以 Helm Charts、Kubernetes YAML 清单还是 Knative 应用的形式打包。它通过 Kustomize 提供高级定制配置管理工具,允许用户快速开发应用的 Kustomizations,并通过 Ship 的易用界面预览和应用这些定制。
2. 项目快速启动
安装 Ship
Ship 作为一个单一的二进制文件分发,支持 Linux 和 MacOS 系统。以下是安装步骤:
下载并安装 Linux 版本
curl -sSL https://github.com/replicatedhq/ship/releases/download/v0.51.2/ship_0.51.2_linux_amd64.tar.gz | tar zxv && sudo mv ship /usr/local/bin
下载并安装 MacOS 版本
curl -sSL https://github.com/replicatedhq/ship/releases/download/v0.51.2/ship_0.51.2_darwin_amd64.tar.gz | tar zxv && sudo mv ship /usr/local/bin
或者使用 Homebrew 安装:
brew install ship
初始化 Ship
安装完成后,创建一个目录用于管理你的应用,并从该目录启动 Ship,指定一个上游 Helm 图表或 Kubernetes YAML:
mkdir -p ~/my-ship/example
cd ~/my-ship/example
ship init <path-to-chart> # 例如 github.com/helm/charts/tree/master/stable/grafana
或者通过 Docker 运行:
mkdir -p ~/my-ship/example
cd ~/my-ship/example
docker run -p 8800:8800 -v "$PWD":/wd -w /wd \
replicated/ship init <path-to-chart> # 例如 github.com/helm/charts/tree/master/stable/grafana
注意:如果 Ship 建议的 localhost URL 无法解析,你可能需要将浏览器指向 http://127.0.0.1:8800。
3. 应用案例和最佳实践
自动化第三方应用维护
Ship 允许集群操作员自动保持与上游更改同步,同时保留自定义配置和扩展,而不会产生 git 合并冲突。这得益于 Ship 的三种操作模式如何调用、存储和应用 Kustomizations。
使用 Kustomize 定制 Helm Charts
Ship 通过 Kustomize 提供高级定制配置管理工具,适用于 Helm 图表、Kubernetes 清单和 Knative 应用。Ship 的易用界面(通过 ship init 启动)计算构建覆盖层所需的最小补丁 YAML,并预览应用草拟覆盖层的结果。
启用应用开发者进行最后配置
ship.yaml 文件可以包含在 Kubernetes 清单或 Helm 图表仓库中,以自定义初始 ship init 体验。开发者可以通过这些文件允许最终用户进行最后配置。
4. 典型生态项目
Kubernetes
Ship 主要用于 Kubernetes 生态系统,支持 Helm Charts 和 Kubernetes YAML 清单的管理和部署。
Helm
Helm 是 Kubernetes 的包管理器,Ship 通过 Helm 图表提供应用的初始化和更新功能。
Kustomize
Kustomize 是 Kubernetes 的原生配置管理工具,Ship 利用 Kustomize 进行高级定制配置管理。
通过以上步骤,你可以快速上手并使用 Replicated Ship 进行 Kubernetes 应用的部署和管理。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
ruoyi-plus-soybeanRuoYi-Plus-Soybean 是一个现代化的企业级多租户管理系统,它结合了 RuoYi-Vue-Plus 的强大后端功能和 Soybean Admin 的现代化前端特性,为开发者提供了完整的企业管理解决方案。Vue06- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00