Marp CLI 项目中解决 PDF 生成时的图片缓存问题
2025-07-03 18:45:33作者:俞予舒Fleming
在 Marp CLI 项目中,用户经常遇到一个棘手的问题:当更新幻灯片中的图片后,Markdown 预览能正确显示新图片,但生成的 PDF 文档却仍然显示旧图片。这种现象通常是由于浏览器缓存机制导致的。
问题根源分析
Marp CLI 在将文档转换为 PDF 时,内部会启动一个浏览器进程。这个浏览器进程在监视和服务器模式下会保持活跃状态,以准备处理 Markdown 文件的更新。图片是否刷新取决于内部浏览器进程和远程图片服务器的缓存规则。
Marp CLI 目前无法修改用于生成 PDF 的内部浏览器的缓存规则。设计上也不打算支持此功能,因为禁用缓存可能会导致性能下降和远程服务器过载。
解决方案
1. 手动添加查询参数
最常用的解决方案是在图片 URL 后添加不影响图片内容的查询参数。这会使浏览器认为这是一个新的 URL,从而绕过缓存获取最新图片。

# 添加无意义的查询参数来更新,如 `?__update=v1`

# 使用不同的查询参数再次更新

2. 使用插件自动化处理
对于需要频繁更新的项目,可以编写一个 Marp 插件来自动为图片 URL 添加唯一参数。以下是示例插件代码:
// engine.config.js
const crypto = require('crypto')
const imageUniqParameterPlugin = (markdownIt) => {
const imageRuleIndex = markdownIt.inline.ruler.__find__('image')
if (imageRuleIndex === -1) throw new Error('Parser rule not found: image')
const originalImageRule = {
...markdownIt.inline.ruler.__rules__[imageRuleIndex],
}
// 替换现有的 markdown-it 图片规则以添加唯一参数
markdownIt.inline.ruler.at(
'image',
(state) => {
const originalNormalizeLink = state.md.normalizeLink
try {
// 重写 normalizeLink 方法,在解析图片时添加唯一参数
state.md.normalizeLink = (url) => {
try {
const urlObj = new URL(url, 'dummy://dummy.dummy/')
// 添加唯一参数避免缓存
urlObj.searchParams.set('__marp_v__', crypto.randomUUID())
let normalizedUrl = urlObj.toString()
if (normalizedUrl.startsWith('dummy://dummy.dummy/')) {
// 移除虚拟协议和主机
normalizedUrl = normalizedUrl.slice(20)
}
return originalNormalizeLink(normalizedUrl)
} catch (e) {
console.warn(e)
// 如果 URL 解析失败,回退到原始 normalizeLink
return originalNormalizeLink(url)
}
}
return originalImageRule.fn(state)
} finally {
// 恢复原始 normalizeLink
state.md.normalizeLink = originalNormalizeLink
}
},
{ alt: originalImageRule.alt }
)
}
module.exports = {
engine: ({ marp }) => marp.use(imageUniqParameterPlugin),
}
注意事项
-
性能考虑:禁用缓存或频繁更改图片 URL 会增加服务器负载,可能导致性能下降。
-
缓存策略:最佳实践是结合使用合理的缓存策略和版本控制,而不是完全禁用缓存。
-
本地开发:对于本地开发环境,可以考虑使用开发服务器配置更宽松的缓存规则。
-
生产环境:在生产环境中,建议采用内容哈希或版本号作为图片文件名或查询参数的一部分,实现更可控的缓存策略。
通过理解这些原理和解决方案,开发者可以更好地控制 Marp CLI 项目中的图片缓存行为,确保 PDF 生成结果与预期一致。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00
项目优选
收起
deepin linux kernel
C
28
15
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
663
4.27 K
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.54 K
895
Ascend Extension for PyTorch
Python
505
610
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
392
290
暂无简介
Dart
909
219
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
69
21
昇腾LLM分布式训练框架
Python
142
168
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
940
867
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.33 K
108