使用Helm Chart在Kubernetes上部署Apache Doris集群
前言
Apache Doris作为一款高性能的MPP分析型数据库,在现代数据架构中扮演着重要角色。本文将详细介绍如何利用Helm Chart在Kubernetes环境中快速部署Apache Doris集群,实现存储与计算资源的统一管理。
Helm简介
Helm是Kubernetes的包管理工具,它通过Chart(图表)的形式定义、安装和升级复杂的Kubernetes应用。使用Helm部署Doris可以带来以下优势:
- 简化部署流程,避免手动配置的复杂性
- 提供标准化的部署模板
- 支持灵活的配置覆盖
- 便于版本管理和升级
准备工作
在开始部署前,请确保已具备以下环境:
- 可用的Kubernetes集群(版本1.16+)
- 已安装并配置kubectl命令行工具
- 已安装Helm(版本3.0+)
- 集群中配置了可用的StorageClass(用于持久化存储)
添加Doris Helm仓库
Doris官方提供了包含Operator和集群部署的Helm仓库,添加步骤如下:
# 添加Doris Helm仓库
helm repo add doris-repo https://charts.selectdb.com
# 更新仓库至最新版本
helm repo update doris-repo
# 验证仓库信息
helm search repo doris-repo
执行后应能看到类似输出,包含doris-operator和doris两个Chart:
NAME CHART VERSION APP VERSION DESCRIPTION
doris-repo/doris-operator 1.3.1 1.3.1 Doris-operator for doris creat ...
doris-repo/doris 1.3.1 2.0.3 Apache Doris is an easy-to-use ...
部署Doris Operator
基础部署
Operator是管理Doris集群生命周期的核心组件,执行以下命令进行默认安装:
helm install operator doris-repo/doris-operator -n doris --create-namespace
自定义配置部署
如需自定义Operator配置(如资源限制、副本数等),需先下载values.yaml文件:
helm show values doris-repo/doris-operator > operator-values.yaml
编辑完成后使用自定义配置安装:
helm install -f operator-values.yaml operator doris-repo/doris-operator -n doris
验证Operator状态
部署完成后,检查Operator Pod状态:
kubectl get pod -n doris
正常输出应显示Operator Pod状态为Running:
NAME READY STATUS RESTARTS AGE
doris-operator-866bd449bb-zl5mr 1/1 Running 0 18m
部署Doris集群
基础部署
使用默认配置部署Doris集群(包含3个FE和3个BE节点):
helm install doriscluster doris-repo/doris -n doris
自定义配置部署
对于生产环境,建议根据实际需求自定义集群配置:
- 获取默认values文件:
helm show values doris-repo/doris > cluster-values.yaml
-
编辑cluster-values.yaml,常见配置项包括:
- FE/BE节点数量
- 资源请求与限制(CPU/内存)
- 存储配置(StorageClass、容量)
- 服务类型(NodePort/LoadBalancer)
- 监控配置
-
使用自定义配置部署:
helm install -f cluster-values.yaml doriscluster doris-repo/doris -n doris
验证集群状态
部署完成后,检查集群Pod状态:
kubectl get pod -n doris
正常输出应显示所有FE和BE节点均为Running状态:
NAME READY STATUS RESTARTS AGE
doriscluster-helm-fe-0 1/1 Running 0 1m39s
doriscluster-helm-fe-1 1/1 Running 0 1m39s
doriscluster-helm-fe-2 1/1 Running 0 1m39s
doriscluster-helm-be-0 1/1 Running 0 16s
doriscluster-helm-be-1 1/1 Running 0 16s
doriscluster-helm-be-2 1/1 Running 0 16s
访问Doris集群
部署完成后,可以通过以下方式访问Doris:
-
MySQL客户端访问:
mysql -h <FE_SERVICE_IP> -P 9030 -uroot -
Web UI访问: 在浏览器中访问FE的HTTP端口(默认8030),查看集群状态和管理界面。
卸载Doris集群
卸载Doris集群
当不再需要Doris集群时,执行以下命令卸载:
helm uninstall doriscluster -n doris
卸载Doris Operator
确保没有运行的Doris集群后,可卸载Operator:
helm uninstall operator -n doris
最佳实践建议
-
生产环境配置:
- 建议FE节点至少3个以保证高可用
- BE节点数量根据数据量和查询负载确定
- 为关键组件设置合理的资源限制
-
存储规划:
- 为BE节点配置高性能存储(如SSD)
- 根据数据增长预期设置足够的存储容量
-
监控与告警:
- 集成Prometheus监控Doris集群指标
- 配置关键指标的告警规则
-
备份策略:
- 定期备份元数据
- 考虑使用Kubernetes的VolumeSnapshot功能备份数据
常见问题排查
-
Pod无法启动:
- 检查资源配额是否足够
- 验证StorageClass是否可用
- 查看Pod日志获取详细错误信息
-
集群无法选举Leader:
- 确认FE节点数量为奇数
- 检查网络连通性
-
性能问题:
- 监控资源使用情况
- 调整BE节点数量和资源配置
通过本文介绍的Helm Chart部署方式,您可以快速在Kubernetes环境中搭建Apache Doris集群,并根据实际需求灵活调整配置。这种部署方式特别适合需要快速弹性伸缩和统一管理的云原生环境。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00