如何使用 Jekyll-Feed 构建您的站点 RSS 订阅
一、项目介绍
Jekyll-Feed 是一个功能强大的 Jekyll 插件,能够自动生成 Atom(类似 RSS)格式的订阅源供你的 Jekyll 文章使用。通过这个插件,你可以轻松地使你的网站具备被 RSS 阅读器抓取的能力,方便读者通过 RSS 阅读器订阅并获取最新更新的文章。
二、项目快速启动
安装步骤
要安装 Jekyll-Feed 并在你的 Jekyll 网站中启用它,请按以下步骤操作:
1. 添加依赖至 Gemfile
打开你的 Jekyll 网站根目录下的 Gemfile 文件,添加下面这行代码:
gem 'jekyll-feed'
2. 更新你的 _config.yml 文件
接下来,在你的 _config.yml 文件中加入或确认已经存在如下配置项:
plugins:
- jekyll-feed
注:如果你使用的是 Jekyll 版本低于 3.5.0,则应该使用 gems: 关键字代替 plugins:。
执行完这些步骤后,记得运行 bundle install 命令来确保所有新的 gem 都正确安装。
使用示例
一旦 Jekyll-Feed 成功安装,就可以在 /feed.xml 下自动生成 Atom 格式的订阅源。默认情况下,该插件限制每个订阅源显示最近的十篇文章,可以修改此行为以适应个人需求。
三、应用案例和最佳实践
自定义标题和描述
Jekyll-Feed 可从 _config.yml 文件中的某些变量自动提取元数据用于生成订阅源,例如:
title: 站点标题。description: 站点的详细描述。url: 站点 URL。author: 全局作者信息。
只要你在配置文件里包含了上述任意一项,它们就会在最终的 XML 输出中相应位置得到体现。
控制订阅源路径
如果在非标准目录下已有现成订阅源,比如由其他服务产生,你需要告诉 Jekyll-Feed 不要在常规位置重新创建一份。具体方法是将 feed_path 设置为空字符串 ("") 或者希望使用的路径。
修改样式表
当仓库根目录有名为 feed.xsl 的 XSLT 样式表时,Jekyll-Feed 将会在 <link> 标签内为生成的订阅源文件关联上这份样式表。这种机制允许你对浏览器中呈现的页面外观进行更多自定义设置。
改变文章数量限制
如果你想改变每页输出的文章数,默认值为 10,则可以在配置文件中设置 posts_limit 参数来进行更改。
应用到集合
除了普通博客文章以外,你还能选择让其他任何类型的集合也拥有自己的订阅源。只需在配置文件的 feed: 节部分列出想要处理的集合名称即可。
四、典型生态项目
Jekyll 生态系统中有许多著名网站和技术社区都运用了 Jekyll-Feed 来提供更丰富的用户体验。例如,代码托管平台页面自带支持,许多技术博主因此选择了使用 Jekyll 搭配 Jekyll-Feed 构建个人博客平台。
希望这篇指南能够帮助大家了解如何利用 Jekyll-Feed 提升 Jekyll 网站的实用性及可访问性。如果你想了解更多高级特性和定制选项,建议查阅 Jekyll-Feed 官方文档 中的详细介绍。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00