飞书文档批量导出终极方案:3种格式一键搞定
你是否遇到过这样的困境:公司办公软件更换,需要将飞书知识库中的大量文档迁移到本地,却苦于没有高效的批量导出工具?手动下载几百个文档不仅耗时耗力,还容易出错。今天我要介绍的这个工具,正是为了解决这个痛点而生。
为什么选择这个导出工具
传统方案的问题:市面上已有的飞书文档导出工具要么下载速度太慢,要么只能单个文档操作,要么不支持表格类型文档。这些问题在面临大量文档迁移时显得尤为突出。
本工具的优势:
- 批量导出:一次性导出知识库下所有文档
- 格式多样:支持markdown、docx、pdf三种格式
- 跨平台支持:Windows、Mac、Linux系统均可使用
- 极速体验:实测700多个文档仅需25分钟完成导出
- 结构保持:导出的文档目录结构与原飞书知识库完全一致
准备工作:环境配置
第一步:获取飞书开发者权限
-
进入飞书开发者后台,创建企业自建应用
-
在权限管理中开通以下关键权限:
- 查看新版文档
- 查看、评论和下载云空间中所有文件
- 查看、评论和导出文档
- 查看、编辑和管理知识库
- 导出云文档
-
添加机器人应用能力
-
创建版本并申请发布上线
-
获取App ID和App Secret
第二步:下载程序文件
项目源码地址:https://gitcode.com/gh_mirrors/fe/feishu-doc-export
根据你的操作系统下载对应的程序包:
- Windows系统:feishu-doc-export-win-x64.zip
- Mac系统:feishu-doc-export-mac-osx-x64.zip
- Linux系统:feishu-doc-export-linux-x64.zip
核心操作:一键导出指南
Windows系统操作
打开命令提示符或PowerShell,导航到程序所在目录:
# 导出知识库所有文档为docx格式
.\feishu-doc-export.exe --appId=你的AppId --appSecret=你的AppSecret --exportPath=导出目录路径
# 导出为markdown格式
.\feishu-doc-export.exe --appId=你的AppId --appSecret=你的AppSecret --saveType=md --exportPath=导出目录路径
# 导出为pdf格式
.\feishu-doc-export.exe --appId=你的AppId --appSecret=你的AppSecret --saveType=pdf --exportPath=导出目录路径
Mac和Linux系统操作
在终端中执行以下命令:
# 首次使用需要授权可执行权限
sudo chmod +x ./feishu-doc-export
# 导出知识库文档
sudo ./feishu-doc-export --appId=你的AppId --appSecret=你的AppSecret --exportPath=导出目录路径
# 导出个人空间云文档
sudo ./feishu-doc-export --appId=你的AppId --appSecret=你的AppSecret --type=cloudDoc --folderToken=文件夹Token --exportPath=导出目录路径
参数详解
- appId:飞书自建应用的AppId(必填)
- appSecret:飞书自建应用的AppSecret(必填)
- exportPath:文档导出的目录位置(必填)
- spaceId:飞书知识库ID(可选)
- type:导出类型,cloudDoc为个人空间,wiki为知识库(默认为wiki)
- saveType:导出格式,支持docx、md、pdf(默认为docx)
- folderToken:个人空间文件夹Token(type=cloudDoc时必填)
进阶技巧:高效使用建议
格式选择策略
docx格式:
- 导出速度最快
- 格式保留最完整
- 适合需要保持原样格式的场景
markdown格式:
- 适合技术文档和代码管理
- 注意:部分格式可能丢失(引用语法、表格、行内代码块)
pdf格式:
- 导出速度最慢
- 图片内嵌,文件体积较大
- 适合需要打印或分享的场景
性能优化方案
- 网络环境:确保稳定的网络连接
- 磁盘空间:导出目录要有足够存储空间
- 时间安排:建议在非工作时间进行大规模导出
常见问题解答
问:为什么导出markdown格式会丢失部分内容?
答:这是因为工具的实现方式是通过飞书接口先将文档下载为docx,再转换为markdown。在docx下载阶段就可能存在格式丢失问题。
问:mac系统运行时提示"不受信任的执行程序"怎么办?
答:这是mac系统的安全机制,需要手动在"隐私与安全性"设置中允许运行。
问:导出个人空间文档需要注意什么?
答:需要将要导出的文件夹分享给自建应用,让应用拥有导出权限,并获取对应的folderToken。
问:为什么不支持列举个人空间文件夹列表?
答:因为飞书对个人空间做了登录限制,未登录情况下相关API无法直接调用。
使用效果展示
经过实际测试,该工具在处理大量文档时表现出色:
- 700多个文档:导出总耗时仅25分钟
- 后台运行:不影响正常工作
- 结构完整:目录层级与飞书知识库保持一致
版本更新说明
最新版本特性:
- 支持知识库内文件类型文档导出(pdf、图片等)
- 新增个人空间云文档导出功能
- 优化程序异常处理机制
- 新增type和folderToken参数
通过以上完整的操作指南,你可以轻松实现飞书文档的批量导出,无论是知识库迁移、文档备份还是格式转换,都能高效完成。这个工具真正做到了让文档导出变得简单快捷。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00