告别手动添加!Yuedu书源批量导入工具让你1分钟搞定上百个小说网站
你还在为逐个添加小说书源而浪费时间吗?是否遇到过导入大量书源时重复操作的烦恼?本文将带你掌握Yuedu书源批量导入的完整技巧,从网络导入到本地管理,让你轻松拥有海量小说资源库。
为什么需要批量导入书源?
「阅读」APP作为一款开源小说阅读工具,需要通过书源规则解析网络小说网站内容。手动添加单个书源不仅效率低下,还容易遗漏优质资源。根据用户反馈,批量导入功能可将书源配置时间从小时级缩短至分钟级,特别适合需要管理多个小说网站的重度阅读用户。
官方文档明确指出:「书源导入时APP会自动去重复」,这意味着你可以放心导入多个书源文件而不必担心冲突。项目书源文件shuyuan中已包含起点中文等正版网站规则,通过批量导入可一次性激活这些资源。
三种批量导入方法对比
| 导入方式 | 操作难度 | 网络要求 | 适用场景 |
|---|---|---|---|
| 二维码导入 | ⭐ | 需联网 | 手机端快速配置 |
| 网络导入 | ⭐⭐ | 需联网 | 定期更新书源 |
| 本地导入 | ⭐⭐⭐ | 无 | 离线备份/自定义书源 |
方法一:二维码导入(推荐新手)
- 打开「阅读」APP,依次点击「我的」→「书源管理」
- 点击右上角「┇」图标,选择「二维码导入」
- 使用手机扫描下方二维码完成导入
注意:二维码图片需从官方渠道获取,确保书源安全性。导入后可在shuyuan文件中查看已添加的书源配置。
方法二:网络导入(推荐日常更新)
网络导入支持通过CDN地址直接拉取最新书源,特别适合定期同步更新。项目提供多个国内CDN地址,确保在国内网络环境下的访问速度:
https://raw.ixnic.net/XIU2/Yuedu/master/shuyuan
https://raw.kkgithub.com/XIU2/Yuedu/master/shuyuan
https://jsd.onmicrosoft.cn/gh/XIU2/Yuedu/master/shuyuan
操作步骤:
- 在书源管理页面选择「网络导入」
- 复制上述任一地址粘贴到输入框
- 点击「确定」完成批量导入
方法三:本地导入(适合高级用户)
本地导入允许你管理自定义书源文件,步骤如下:
- 从README.md提供的书源分享地址下载shuyuan.json文件
- 将文件保存至手机可访问目录
- 在「书源管理」中选择「本地导入」并选择该文件

批量导入后的优化设置
成功导入书源后,建议进行以下配置提升使用体验:
- 调整预下载设置:在「阅读-其他设置」中将「预下载」设为1~5章,避免触发网站访问限制
- 优化线程数:将「更新和搜索线程数」调低至1~5,减少IP封禁风险
- 分类管理书源:通过shuyuan文件中的"bookSourceGroup"字段对书源进行分组,如"正版"、"网络小说"等类别
常见问题解决
Q: 导入后部分书源无法使用?
A: 可能是书源规则已过时,可尝试通过网络导入更新书源。若问题持续,可在项目README.md中查看最新维护状态。
Q: 如何避免导入重复书源?
A: 「阅读」APP会自动去重,无需手动筛选。建议定期通过网络导入更新,保持书源库最新状态。
Q: 批量导入会影响APP性能吗?
A: 合理配置线程数(1~5)不会影响性能。项目维护者建议:"调低更新和搜索线程数可有效降低触发网站限制的风险"。
总结与下一步
通过本文介绍的三种批量导入方法,你已掌握Yuedu书源的高效管理技巧。建议定期(如每月)通过网络导入更新书源,并将优质书源导出备份。如果你有好用的小说网站,可通过项目Issues功能推荐,共同丰富书源库。
提示:想要更多书源?可参考README.md中推荐的"源仓库"和"Yiove综合书源库",结合批量导入功能快速扩展你的阅读资源。
希望本文能帮助你更高效地管理小说书源,享受畅快的阅读体验!如有其他问题,欢迎在项目讨论区交流分享经验。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00