如何使用 Jekyll-Feed 构建您的站点 RSS 订阅
一、项目介绍
Jekyll-Feed 是一个功能强大的 Jekyll 插件,能够自动生成 Atom(类似 RSS)格式的订阅源供你的 Jekyll 文章使用。通过这个插件,你可以轻松地使你的网站具备被 RSS 阅读器抓取的能力,方便读者通过 RSS 阅读器订阅并获取最新更新的文章。
二、项目快速启动
安装步骤
要安装 Jekyll-Feed 并在你的 Jekyll 网站中启用它,请按以下步骤操作:
1. 添加依赖至 Gemfile
打开你的 Jekyll 网站根目录下的 Gemfile 文件,添加下面这行代码:
gem 'jekyll-feed'
2. 更新你的 _config.yml 文件
接下来,在你的 _config.yml 文件中加入或确认已经存在如下配置项:
plugins:
- jekyll-feed
注:如果你使用的是 Jekyll 版本低于 3.5.0,则应该使用 gems: 关键字代替 plugins:。
执行完这些步骤后,记得运行 bundle install 命令来确保所有新的 gem 都正确安装。
使用示例
一旦 Jekyll-Feed 成功安装,就可以在 /feed.xml 下自动生成 Atom 格式的订阅源。默认情况下,该插件限制每个订阅源显示最近的十篇文章,可以修改此行为以适应个人需求。
三、应用案例和最佳实践
自定义标题和描述
Jekyll-Feed 可从 _config.yml 文件中的某些变量自动提取元数据用于生成订阅源,例如:
title: 站点标题。description: 站点的详细描述。url: 站点 URL。author: 全局作者信息。
只要你在配置文件里包含了上述任意一项,它们就会在最终的 XML 输出中相应位置得到体现。
控制订阅源路径
如果在非标准目录下已有现成订阅源,比如由其他服务产生,你需要告诉 Jekyll-Feed 不要在常规位置重新创建一份。具体方法是将 feed_path 设置为空字符串 ("") 或者希望使用的路径。
修改样式表
当仓库根目录有名为 feed.xsl 的 XSLT 样式表时,Jekyll-Feed 将会在 <link> 标签内为生成的订阅源文件关联上这份样式表。这种机制允许你对浏览器中呈现的页面外观进行更多自定义设置。
改变文章数量限制
如果你想改变每页输出的文章数,默认值为 10,则可以在配置文件中设置 posts_limit 参数来进行更改。
应用到集合
除了普通博客文章以外,你还能选择让其他任何类型的集合也拥有自己的订阅源。只需在配置文件的 feed: 节部分列出想要处理的集合名称即可。
四、典型生态项目
Jekyll 生态系统中有许多著名网站和技术社区都运用了 Jekyll-Feed 来提供更丰富的用户体验。例如,代码托管平台页面自带支持,许多技术博主因此选择了使用 Jekyll 搭配 Jekyll-Feed 构建个人博客平台。
希望这篇指南能够帮助大家了解如何利用 Jekyll-Feed 提升 Jekyll 网站的实用性及可访问性。如果你想了解更多高级特性和定制选项,建议查阅 Jekyll-Feed 官方文档 中的详细介绍。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00