三步完成语雀文档迁移:Markdown本地备份全攻略
副标题:告别平台依赖,用yuque-exporter打造你的知识保险箱
开篇:当团队知识库面临"断舍离"
上周接到通知:公司语雀团队空间即将到期,300+篇技术文档需要在7天内完成备份。作为团队里的"工具人",我试了3种方案:手动复制粘贴(效率低)、官方导出功能(格式错乱)、第三方插件(付费且有数据风险)。最终,一个叫yuque-exporter的开源工具帮我们实现了"无痛迁移"——3行命令、2小时完成全量备份,连图片和内部链接都完美保留。
本文将用"问题-操作-验证"的实战框架,带你避开90%的迁移坑。
第一章:环境部署——5分钟搭好迁移工作站
⚠️ 常见误区
"直接用npx运行就能成功?"
不少用户忽略了Node.js版本兼容性,导致启动时报SyntaxError。
💡 正确操作
1. 系统准备(选择对应方式)
| 操作系统 | 安装命令 | 版本要求 |
|---|---|---|
| macOS/Linux | brew install node 或 sudo apt install nodejs |
Node.js ≥ 14.0.0 |
| Windows | 从nodejs.org下载LTS版本 | 需勾选"Add to PATH" |
2. 获取数字钥匙(API Token)
登录语雀→右上角头像→「账号设置」→「开发者设置」→「创建Token」,复制生成的字符串(这串字符相当于你知识库的"电子钥匙",不要分享给他人)。
3. 测试运行
# 首次使用(免安装)
npx yuque-exporter --token=你的密钥 --repo=用户名/知识库名
# 或本地安装(适合频繁使用)
npm install -g yuque-exporter
yuque-exporter --token=你的密钥 --repo=用户名/知识库名
✅ 效果验证
终端显示Export completed!,当前目录生成output文件夹,包含.md文件和images子目录。
第二章:核心功能——解锁3个生产力开关
⚠️ 常见误区
"导出的Markdown图片都是裂开的?"
这是因为忽略了图片本地化参数,默认配置仅导出文本。
💡 正确操作
1. 图片自动下载
yuque-exporter --token=密钥 --repo=用户名/知识库 --download-images
💡 技巧:添加
--image-folder=assets可自定义图片存放目录,适配Hexo、VuePress等静态博客需求。
2. 目录结构自定义
yuque-exporter --token=密钥 --repo=用户名/知识库 --use-slug
🔍 说明:
--use-slug参数会将中文目录名转为"URL友好标识符"(如"前端笔记"→"qian-duan-bi-ji"),解决Windows系统中文路径乱码问题。
3. 批量处理多知识库
yuque-exporter --token=密钥 --repo=用户名/知识库1,用户名/知识库2 --output=./backup
✅ 效果验证
output目录下按原语雀结构生成嵌套文件夹,Markdown中图片链接格式为描述。
第三章:问题排查——3分钟定位故障点
graph TD
A[启动失败] -->|报错"Token invalid"| B[检查密钥是否过期]
A -->|报错"Repo not found"| C[确认知识库路径格式:用户名/知识库名]
D[导出后无内容] -->|仅生成空文件夹| E[检查网络代理设置]
D -->|部分文档缺失| F[确认文档是否为"私密"状态]
G[图片无法显示] --> H[添加--download-images参数]
G --> I[检查output/images目录权限]
高频问题速查表
| 症状 | 病因 | 药方 |
|---|---|---|
| 终端显示403错误 | Token权限不足 | 重新生成Token并勾选"读取知识库"权限 |
| 文件名含问号/星号 | 系统不支持特殊字符 | 添加--sanitize-filenames参数 |
| 内部链接404 | 文档ID变更 | 使用--fix-links修复相对路径 |
结语:不止于备份的知识管理工具
yuque-exporter最让我惊喜的是"增量更新"特性——第二次运行时只会同步变更内容,这对持续维护的知识库来说太实用了。目前项目还在快速迭代,作者承诺下个月会支持Obsidian的双链格式(期待ing)。
如果你也受困于平台锁定,不妨用这个工具把知识主权握在自己手里。毕竟,数据存在本地,安全感才是100%的。
📌 工具地址:gitcode.com/gh_mirrors/yuq/yuque-exporter(仅用于获取源码,实际使用无需克隆仓库)
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00