将WordPress导出转换为Markdown的利器
在数字化内容创作的世界中,越来越多的人选择使用静态站点生成器来托管他们的博客和网站,如Gatsby、Hugo和Jekyll等。但如何将现有的WordPress内容顺利迁移到这些平台?这就引出了我们的主角——wordpress-export-to-markdown。
这是一个强大的脚本,能将WordPress的XML导出文件直接转化为适合静态站点生成器的Markdown文件。不仅如此,它还能保留所有的图像,并处理嵌入的内容,如YouTube视频、Twitter推文或CodePen代码片段,使迁移过程变得简单快捷。

快速上手
要开始使用这个工具,你只需要:
- 安装Node.js v12.14或更高版本。
- 获取你的WordPress导出文件(确保选择了“全部内容”以保存图片和/或页面)。
然后,在命令行里,你可以通过以下方式运行:
npx wordpress-export-to-markdown
或者克隆项目后再运行(这样重复运行更快,还可以自定义代码)。克隆后在终端转到包目录并执行:
npm install && node index.js
无论是哪种方式,它都会启动一个向导,引导你完成设置。
命令行选项
如果想在命令行中设置选项,你可以这样做:
npx wordpress-export-to-markdown --post-folders=false --prefix-date=true
或者在本地克隆的副本中运行:
node index.js --post-folders=false --prefix-date=true
向导会询问未指定的选项,如果你想完全跳过向导并使用默认值,可以添加--wizard=false。
可选参数
-
使用向导?(
--wizard)- 类型:布尔型
- 默认:
true - 启用后,脚本会提示你每个选项。禁用则直接使用默认值。
-
WordPress导出文件路径?(
--input)- 类型:文件路径
- 默认:
export.xml - 指定WordPress导出文件的位置。
-
输出文件夹路径?(
--output)- 类型:文件夹路径
- 默认:
output - 指定Markdown和图片文件的保存位置。若不存在,将为你创建。
-
创建年份文件夹?(
--year-folders)- 类型:布尔型
- 默认:
false - 是否按年份组织输出文件。
-
创建月份文件夹?(
--month-folders)- 类型:布尔型
- 默认:
false - 是否按月份组织输出文件。通常与
--year-folders结合使用。
-
为每篇文章创建文件夹?(
--post-folders)- 类型:布尔型
- 默认:
true - 设置是否以帖子的slug为名创建文件夹,以及Markdown文件名为
index.md。
-
在帖子文件名前加上日期?(
--prefix-date)- 类型:布尔型
- 默认:
false - 是否在帖子slug前加上发布日期。
-
保存附加到帖子的图片?(
--save-attached-images)- 类型:布尔型
- 默认:
true - 是否下载并保存与帖子关联的图片。
-
保存从文章内容中抓取的图片?(
--save-scraped-images)- 类型:布尔型
- 默认:
true - 是否下载并保存从
<img>标签中提取的图片。
-
包括自定义类型和页面?(
--include-other-types)- 类型:布尔型
- 默认:
false - 如果设为
true,将包含自定义类型和其他类型的帖子。
高级设置
在settings.js中,你可以调整一些高级设置,比如限制图片下载速度,或自定义前端元数据中的日期格式。这需要在本地运行脚本来启用这些设置。
总的来说,wordpress-export-to-markdown是一个强大且灵活的工具,可以帮助你轻松地将WordPress站点平滑过渡到各种静态站点生成器。无论你是希望简化维护,还是为了追求更高的性能,这个项目都值得尝试。现在就开始你的Markdown之旅吧!
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust060
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00