将WordPress导出转换为Markdown的利器
在数字化内容创作的世界中,越来越多的人选择使用静态站点生成器来托管他们的博客和网站,如Gatsby、Hugo和Jekyll等。但如何将现有的WordPress内容顺利迁移到这些平台?这就引出了我们的主角——wordpress-export-to-markdown。
这是一个强大的脚本,能将WordPress的XML导出文件直接转化为适合静态站点生成器的Markdown文件。不仅如此,它还能保留所有的图像,并处理嵌入的内容,如YouTube视频、Twitter推文或CodePen代码片段,使迁移过程变得简单快捷。

快速上手
要开始使用这个工具,你只需要:
- 安装Node.js v12.14或更高版本。
- 获取你的WordPress导出文件(确保选择了“全部内容”以保存图片和/或页面)。
然后,在命令行里,你可以通过以下方式运行:
npx wordpress-export-to-markdown
或者克隆项目后再运行(这样重复运行更快,还可以自定义代码)。克隆后在终端转到包目录并执行:
npm install && node index.js
无论是哪种方式,它都会启动一个向导,引导你完成设置。
命令行选项
如果想在命令行中设置选项,你可以这样做:
npx wordpress-export-to-markdown --post-folders=false --prefix-date=true
或者在本地克隆的副本中运行:
node index.js --post-folders=false --prefix-date=true
向导会询问未指定的选项,如果你想完全跳过向导并使用默认值,可以添加--wizard=false。
可选参数
-
使用向导?(
--wizard)- 类型:布尔型
- 默认:
true - 启用后,脚本会提示你每个选项。禁用则直接使用默认值。
-
WordPress导出文件路径?(
--input)- 类型:文件路径
- 默认:
export.xml - 指定WordPress导出文件的位置。
-
输出文件夹路径?(
--output)- 类型:文件夹路径
- 默认:
output - 指定Markdown和图片文件的保存位置。若不存在,将为你创建。
-
创建年份文件夹?(
--year-folders)- 类型:布尔型
- 默认:
false - 是否按年份组织输出文件。
-
创建月份文件夹?(
--month-folders)- 类型:布尔型
- 默认:
false - 是否按月份组织输出文件。通常与
--year-folders结合使用。
-
为每篇文章创建文件夹?(
--post-folders)- 类型:布尔型
- 默认:
true - 设置是否以帖子的slug为名创建文件夹,以及Markdown文件名为
index.md。
-
在帖子文件名前加上日期?(
--prefix-date)- 类型:布尔型
- 默认:
false - 是否在帖子slug前加上发布日期。
-
保存附加到帖子的图片?(
--save-attached-images)- 类型:布尔型
- 默认:
true - 是否下载并保存与帖子关联的图片。
-
保存从文章内容中抓取的图片?(
--save-scraped-images)- 类型:布尔型
- 默认:
true - 是否下载并保存从
<img>标签中提取的图片。
-
包括自定义类型和页面?(
--include-other-types)- 类型:布尔型
- 默认:
false - 如果设为
true,将包含自定义类型和其他类型的帖子。
高级设置
在settings.js中,你可以调整一些高级设置,比如限制图片下载速度,或自定义前端元数据中的日期格式。这需要在本地运行脚本来启用这些设置。
总的来说,wordpress-export-to-markdown是一个强大且灵活的工具,可以帮助你轻松地将WordPress站点平滑过渡到各种静态站点生成器。无论你是希望简化维护,还是为了追求更高的性能,这个项目都值得尝试。现在就开始你的Markdown之旅吧!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00