TiUP - 钛云集群组件管理工具指南
项目介绍
TiUP 是由 PingCAP 开发的一款命令行组件管理工具,它简化了 TiDB 生态系统中不同组件的管理和部署流程。自 TiDB 4.0 版本起,TiUP 成为了 TiDB 平台的核心组成部分之一,提供了一种更高效的方式去安装、更新、卸载及管理 TiDB 的多个组件。
TiUP 工具通过统一接口访问多种 TiDB 组件,如 TiDB 数据库服务器、TiKV 键值存储引擎、PD (Placement Driver) 调度器等,让部署、维护 TiDB 集群变得轻松且标准化。
快速启动
要开始使用 TiUP,首先确保你的环境中已经安装了 curl 和必要的网络访问权限。接下来执行以下命令来安装 TiUP:
curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh
这将把 TiUP 安装到 $HOME/.tiup 目录下。为了方便使用,我们还需要将 TiUP 的二进制文件路径添加到环境变量 PATH 中:
echo 'export PATH="$PATH:$HOME/.tiup/bin"' >> ~/.bashrc
source ~/.bashrc
现在你可以运行以下命令检查 TiUP 是否正确安装:
tiup --version
该命令应该显示 TiUP 当前版本的信息。
应用案例和最佳实践
创建 TiDB 集群
TiUP 提供了一个简单的方式来创建和配置一个全新的 TiDB 集群。假设你想在一个本地测试环境中设置一个 TiDB 集群,可以使用下面的命令:
tiup cluster deploy <cluster-name> <node-count> [options]
例如,创建一个名为 my-cluster 包含三个节点的 TiDB 测试集群:
tiup cluster deploy my-cluster 3 --data-dir=/var/lib/tidb
在集群创建完成后,你可以使用 tiup cluster status 命令来监控集群的状态:
tiup cluster status my-cluster
更新和升级组件
随着时间推移,TiDB 及其组件可能会推出新的版本以修复安全漏洞或性能改进。使用 TiUP 升级这些组件非常容易:
tiup update --all
上述命令将更新所有已安装的 TiDB 组件至最新版本。
典型生态项目
TiUP 不仅限于对 TiDB 核心组件的操作,它还支持一系列围绕 TiDB 生态系统的附加工具和项目。以下是部分典型生态项目:
- TiDB Operator —— 使用 Kubernetes 部署和管理 TiDB 集群。
- TiDB Data Migration —— 实现数据从其他数据库迁移至 TiDB 的自动化工具。
- TiDB Lightning —— 大规模数据导入工具,能够高速地将大量数据加载入 TiDB。
- Dumpling —— TiDB 的数据导出工具。
- TiCDC —— 提供变更数据捕获(CDC)功能,用于实时同步 TiDB 数据变化至外部系统。
- TiDB Binlog —— 记录并回放 TiDB 操作日志,适用于数据恢复场景。
以上生态项目的集成与使用均可借助 TiUP 进行操作,进一步丰富和扩展了 TiDB 的应用场景和能力范围。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00