Anki搜索与添加卡片插件(fonol/anki-search-inside-add-card)配置详解
插件配置概述
Anki搜索与添加卡片插件是一个功能强大的Anki扩展工具,它提供了丰富的配置选项来满足不同用户的需求。本文将深入解析该插件的各项配置参数,帮助用户更好地定制化使用体验。
核心配置参数解析
基础搜索设置
-
decks参数:允许用户指定需要建立搜索索引的牌组列表。例如设置为["英语词汇", "医学知识"]时,插件将只在这些牌组中建立搜索索引,提高搜索效率并减少资源占用。
-
numberOfResults:控制搜索结果的最大显示数量,默认值为1000。对于大型知识库,适当调低此值可以提升搜索响应速度。
-
usePorterStemmer:启用英语词干提取器,将相关词汇(如"run"和"running")统一索引,提高搜索召回率。但需要注意,此功能主要针对英语优化,其他语言效果可能不理想。
PDF相关配置
-
imageMaxHeight:设置搜索结果中图片显示的最大高度(像素),确保图片展示不会破坏页面布局。
-
pdf.clozegen系列参数:定义生成填空题(Cloze)时使用的笔记模板和字段名称:
- notetype:指定填空题模板名称
- field.clozedtext:填空题内容字段
- field.page:PDF页码字段
- field.pdfpath:PDF路径字段
- field.pdftitle:PDF标题字段
-
pdf.onOpen.autoFillFieldsWithPDFName:打开PDF时自动填充指定字段为PDF名称,简化笔记创建流程。
-
pdf.import.folders_to_search:设置PDF导入功能扫描的文件夹路径,快速定位常用PDF资源。
高级功能配置
-
searchUrls:配置网页查询URL模板,支持在PDF阅读器内直接进行网络搜索。例如在线百科搜索模板:"https://example.org/w/index.php?search=[QUERY]"
-
mix_reviews_and_reading:启用复习与阅读混合模式,定期提示用户处理待办队列,实现复习与学习的平衡。
-
anki.editor.remember_location:记忆笔记编辑窗口的位置和大小(仅限当前会话),提升编辑效率。
性能优化配置
-
freezeIndex:锁定搜索索引,防止自动重建。适用于大型知识库且内容稳定的场景,可显著提升启动速度。
-
pdf.highlights.use_alt_render:解决某些环境下PDF高亮显示异常的问题,启用替代渲染方案。
使用建议
-
对于英语学习者,建议启用usePorterStemmer以提升搜索效果。
-
如果主要使用特定牌组,配置decks参数可以显著提升搜索性能。
-
PDF相关功能配置需要与Anki笔记模板结构相匹配,建议先确认模板字段名称再设置。
-
混合复习模式适合需要平衡新知识学习和旧知识复习的用户,可根据个人习惯调整interrupt_every_nth_card参数。
通过合理配置这些参数,用户可以充分发挥Anki搜索与添加卡片插件的强大功能,打造个性化的学习工作流。建议初次使用时保持大部分默认设置,根据实际需求逐步调整特定参数。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00