Caddy 缓存处理器使用教程
2024-08-27 05:39:08作者:柯茵沙
项目介绍
Caddy 缓存处理器是一个基于 Souin 的分布式 HTTP 缓存模块,专为 Caddy 服务器设计。该模块符合 RFC 7234 标准,支持设置 Cache-Status HTTP 响应头,并提供 REST API 用于清除缓存和列表管理。
项目快速启动
安装 Caddy 和缓存处理器
首先,确保你已经安装了 Caddy。然后,通过以下命令安装缓存处理器模块:
xcaddy build --with github.com/caddyserver/cache-handler
配置 Caddyfile
以下是一个简单的 Caddyfile 配置示例,用于启用缓存处理器:
{
order cache before respond
}
example.com {
cache {
allowed_http_verbs GET POST
api {
basepath /some-basepath
}
prometheus {
souin {
basepath /souin-changed-endpoint-path
}
}
badger {
path /anywhere/badger_configuration.json
}
cache_keys {
*\.css {
disable_body
disable_host
disable_method
disable_query
headers X-Token Authorization
hide
}
}
cache_name Another_cdn
}
reverse_proxy your-app:8080
}
启动 Caddy
使用以下命令启动 Caddy 服务器:
caddy run
应用案例和最佳实践
案例一:静态资源缓存
假设你有一个网站,其中包含大量的静态资源(如 CSS 和 JavaScript 文件)。通过配置缓存处理器,可以显著减少这些资源的加载时间。
example.com {
cache {
allowed_http_verbs GET
cache_keys {
*\.css {
disable_body
disable_host
disable_method
disable_query
headers X-Token Authorization
hide
}
}
}
file_server
}
案例二:动态内容缓存
对于动态内容,可以通过设置适当的缓存策略来提高性能。例如,对于某些 API 请求,可以设置较短的缓存时间。
api.example.com {
cache {
allowed_http_verbs GET POST
cache_keys {
/api/v1/* {
disable_body
disable_host
disable_method
disable_query
headers X-Token Authorization
hide
}
}
}
reverse_proxy backend:8080
}
典型生态项目
Souin
Souin 是一个高性能的 HTTP 缓存库,Caddy 缓存处理器基于 Souin 构建。Souin 提供了丰富的配置选项和强大的缓存策略支持。
Badger
Badger 是一个快速的键值存储库,适用于高性能场景。Caddy 缓存处理器支持使用 Badger 作为缓存存储后端。
Prometheus
Prometheus 是一个开源的监控系统和时间序列数据库。Caddy 缓存处理器集成了 Prometheus,可以方便地收集和分析缓存相关的指标。
通过以上教程,你可以快速上手并充分利用 Caddy 缓存处理器的强大功能,提升你的 Web 应用性能。
登录后查看全文
热门项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedJavaScript094- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
热门内容推荐
最新内容推荐
3步掌握Mermaid Live Editor:让图表创作效率提升10倍3个高效研究工具,让你的学术工作流提升80%效率3步搞定黑苹果EFI:OpCore Simplify如何革新你的配置体验如何使用密码安全检测工具提升系统防护能力零基础2024新版:3步打造专属微信群智能助手3个高效技巧:ChilloutMix NiPrunedFp32Fix让你快速生成超逼真图像3步解锁OpCore Simplify:告别OpenCore配置烦恼,新手也能轻松上手如何3秒提取屏幕文字?Windows OCR工具实战指南Linux Notion客户端:如何突破生态壁垒实现无缝集成AI建筑设计草图生成工具:用ChilloutMix NiPrunedFp32Fix释放创意潜能
项目优选
收起
暂无描述
Dockerfile
700
4.5 K
Ascend Extension for PyTorch
Python
563
691
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
JavaScript
522
94
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
956
951
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
411
338
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.6 K
939
Oohos_react_native
React Native鸿蒙化仓库
C++
340
387
AscendNPU-IR是基于MLIR(Multi-Level Intermediate Representation)构建的,面向昇腾亲和算子编译时使用的中间表示,提供昇腾完备表达能力,通过编译优化提升昇腾AI处理器计算效率,支持通过生态框架使能昇腾AI处理器与深度调优
C++
128
209
昇腾LLM分布式训练框架
Python
148
176
华为昇腾面向大规模分布式训练的多模态大模型套件,支撑多模态生成、多模态理解。
Python
140
221