告别语雀限制!yuque-exporter 一键批量导出语雀文档为本地 Markdown 的完整指南
在数字化创作的浪潮中,许多用户曾依赖语雀平台进行内容管理。然而,随着语雀定位转向“创作工具”而非“内容社区”,免费用户面临无法继续将其作为个人博客的困境。yuque-exporter 应运而生,这款开源工具能帮助你轻松将语雀文档批量导出为本地 Markdown 文件,为内容迁移到 GitHub 等平台提供无缝解决方案。
📌 为什么选择 yuque-exporter?
语雀的策略调整让不少创作者陷入两难:辛苦积累的文档如何高效迁移?yuque-exporter 正是为解决这一痛点而生!它不仅支持完整的文档结构导出,还能自动处理图片、画板等资源,让你的内容在本地环境中完美复现。
✨ 核心优势:告别手动复制粘贴,一键导出所有语雀文档,保留原始格式与相对链接,为多平台发布铺平道路。
🚀 3 步快速上手:从安装到导出
1️⃣ 准备工作:获取语雀 Token
要开始使用 yuque-exporter,你需要先获取语雀 API Token:
- 登录语雀账号,进入个人设置 → Token 管理
- 生成新 Token,勾选「文档读取」权限
- 保存 Token 备用(后续配置需使用)
2️⃣ 安装与配置
方式一:直接使用 npx(推荐新手)
npx yuque-exporter --token=<你的语雀Token>
方式二:源码运行(适合开发者)
# 克隆仓库
git clone https://gitcode.com/gh_mirrors/yuq/yuque-exporter
cd yuque-exporter
# 安装依赖
npm install
# 配置 Token 并启动
YUQUE_TOKEN=<你的语雀Token> npm start
3️⃣ 查看导出结果
导出完成后,文件将保存在项目根目录的 output 文件夹中:
ls output # 查看导出的 Markdown 文件和资源
📋 功能亮点解析
✅ 完整的文档结构保留
工具会自动解析语雀的目录结构,以中文命名文件夹和文件(后续将支持自定义命名规则)。草稿文件直接保存在根目录,确保相对链接的正确性。
✅ 多媒体资源自动下载
- 🖼️ 图片、画板自动保存到本地
- 支持 Frontmatter 元数据导出
- 自动清理多余 HTML 标签(如
<br/>)
✅ 灵活的链接处理
文档内的交叉引用会被转换为本地相对链接,避免迁移后出现“链接失效”问题。
⚙️ 高级配置与自定义
目前工具已支持基础导出功能,更多个性化选项正在开发中:
- [ ] 文件名格式自定义(slug/中文)
- [ ] 非法字符自动处理
- [ ] 多账号/团队文档导出
- [ ] Obsidian 格式兼容优化
开发进度可关注项目 TODO List
❓ 常见问题解答
Q:导出的 Markdown 可以直接用于 Hexo/Hugo 等静态博客吗?
A:完全可以!导出的文件包含标准 Frontmatter 元数据,稍作配置即可接入各类博客系统。
Q:遇到 API 调用限制怎么办?
A:目前语雀 API 限制为 5000 次/小时,普通用户基本够用。后续版本将加入调用频率控制功能。
📝 写在最后
yuque-exporter 不仅是一个导出工具,更是创作者内容自主权的守护者。无论你是想备份重要文档,还是迁移到更开放的平台,它都能成为你的得力助手。
项目仍在持续优化中,欢迎通过 GitHub Issues 反馈问题或贡献代码!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00