TiUP - 钛云集群组件管理工具指南
项目介绍
TiUP 是由 PingCAP 开发的一款命令行组件管理工具,它简化了 TiDB 生态系统中不同组件的管理和部署流程。自 TiDB 4.0 版本起,TiUP 成为了 TiDB 平台的核心组成部分之一,提供了一种更高效的方式去安装、更新、卸载及管理 TiDB 的多个组件。
TiUP 工具通过统一接口访问多种 TiDB 组件,如 TiDB 数据库服务器、TiKV 键值存储引擎、PD (Placement Driver) 调度器等,让部署、维护 TiDB 集群变得轻松且标准化。
快速启动
要开始使用 TiUP,首先确保你的环境中已经安装了 curl 和必要的网络访问权限。接下来执行以下命令来安装 TiUP:
curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh
这将把 TiUP 安装到 $HOME/.tiup 目录下。为了方便使用,我们还需要将 TiUP 的二进制文件路径添加到环境变量 PATH 中:
echo 'export PATH="$PATH:$HOME/.tiup/bin"' >> ~/.bashrc
source ~/.bashrc
现在你可以运行以下命令检查 TiUP 是否正确安装:
tiup --version
该命令应该显示 TiUP 当前版本的信息。
应用案例和最佳实践
创建 TiDB 集群
TiUP 提供了一个简单的方式来创建和配置一个全新的 TiDB 集群。假设你想在一个本地测试环境中设置一个 TiDB 集群,可以使用下面的命令:
tiup cluster deploy <cluster-name> <node-count> [options]
例如,创建一个名为 my-cluster 包含三个节点的 TiDB 测试集群:
tiup cluster deploy my-cluster 3 --data-dir=/var/lib/tidb
在集群创建完成后,你可以使用 tiup cluster status 命令来监控集群的状态:
tiup cluster status my-cluster
更新和升级组件
随着时间推移,TiDB 及其组件可能会推出新的版本以修复安全漏洞或性能改进。使用 TiUP 升级这些组件非常容易:
tiup update --all
上述命令将更新所有已安装的 TiDB 组件至最新版本。
典型生态项目
TiUP 不仅限于对 TiDB 核心组件的操作,它还支持一系列围绕 TiDB 生态系统的附加工具和项目。以下是部分典型生态项目:
- TiDB Operator —— 使用 Kubernetes 部署和管理 TiDB 集群。
- TiDB Data Migration —— 实现数据从其他数据库迁移至 TiDB 的自动化工具。
- TiDB Lightning —— 大规模数据导入工具,能够高速地将大量数据加载入 TiDB。
- Dumpling —— TiDB 的数据导出工具。
- TiCDC —— 提供变更数据捕获(CDC)功能,用于实时同步 TiDB 数据变化至外部系统。
- TiDB Binlog —— 记录并回放 TiDB 操作日志,适用于数据恢复场景。
以上生态项目的集成与使用均可借助 TiUP 进行操作,进一步丰富和扩展了 TiDB 的应用场景和能力范围。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00