3步搞定Legado书源备份:从此换设备不丢收藏
你是否遇到过换手机后书源全部丢失的尴尬?或者想把精心整理的书源分享给朋友却不知从何下手?本文将带你通过3个简单步骤,掌握Legado批量导出书源的方法,让你的阅读收藏永不丢失。
读完本文你将学会:
- 快速进入书源管理界面
- 一键批量导出所有书源
- 备份文件的保存位置与分享技巧
- 书源导入与迁移的实用方法
准备工作:了解书源管理界面
Legado的书源管理功能集中在activity_book_source.xml布局文件中,该界面包含书源列表、搜索框和操作菜单。在开始导出前,我们需要先进入这个界面:
- 打开Legado应用
- 点击底部导航栏的"我的"图标
- 在设置菜单中找到"书源管理"选项
书源管理界面主要包含以下元素:
- 顶部搜索框:可按名称筛选书源
- 书源列表:显示所有已添加的书源
- 批量操作按钮:位于右上角的更多菜单中
- 分组标签:可按类别查看不同组的书源
第一步:批量选择书源
- 在书源管理界面,长按任意书源项激活批量选择模式
- 点击"全选"按钮选择所有书源,或手动勾选需要导出的书源
- 确认选择后,点击底部操作栏中的"导出"按钮
提示:书源分组功能可帮助你更好地管理不同类型的书源,导出时也可以按分组选择。相关实现代码可参考bookSources.json文件中的"bookSourceGroup"字段。
第二步:执行导出操作
导出功能由ExportBookService服务处理,操作步骤如下:
- 选择书源后,点击"导出"按钮
- 在弹出的对话框中,选择"导出选中书源"
- 等待导出完成提示,通常只需几秒钟
导出过程中,应用会将书源数据转换为JSON格式,其结构与默认书源文件保持一致,包含书源名称、URL、规则等完整信息。
第三步:查找备份文件
导出的书源文件默认保存在以下位置:
内部存储/Legado/backup/bookSources/
文件命名格式为bookSources_yyyyMMdd_HHmmss.json,例如bookSources_20231031_153022.json。你可以通过以下方式找到该文件:
- 在Legado中点击"文件管理"FileManageActivity
- 导航到上述备份目录
- 长按文件可进行分享、复制或移动操作
书源分享与迁移技巧
分享书源文件
导出的JSON文件可以通过多种方式分享:
- 直接通过蓝牙、微信等应用分享文件
- 将文件上传到云存储,方便多设备同步
- 使用Legado的"导入网络书源"功能,通过URL分享
导入书源的两种方法
-
本地文件导入:
- 在书源管理界面点击"导入"
- 选择"本地导入"并导航到备份文件
- 确认导入即可恢复所有书源
-
一键导入链接: 使用Legado支持的特殊URL格式:
legado://import/bookSource?src=https://example.com/your_bookSources.json
高级技巧:自动备份与云同步
虽然Legado目前没有内置自动备份功能,但你可以通过以下方法实现类似效果:
- 使用文件管理器应用设置定时备份任务
- 将备份目录与云盘同步(如百度云、Dropbox等)
- 定期检查backup文件夹,确保备份文件最新
注意:书源文件包含网站规则等敏感信息,建议仅分享给信任的人,不要公开传播可能涉及版权的内容。
故障排除:常见问题解决
导出失败怎么办?
- 检查存储空间是否充足
- 确认应用有文件写入权限AndroidManifest.xml
- 尝试单独导出部分书源,排查异常书源
导入后书源无法使用?
- 检查书源文件格式是否正确
- 确认书源URL是否仍然有效
- 尝试更新Legado到最新版本
总结与展望
通过本文介绍的方法,你已经掌握了Legado书源的批量导出与备份技巧。定期备份书源不仅可以防止数据丢失,也是分享阅读资源的好方法。官方帮助文档help中还有更多关于书源规则编写的高级技巧,感兴趣的读者可以进一步学习。
建议每月至少进行一次书源备份,并将重要的备份文件存储在多个位置。这样即使更换设备或遇到应用问题,也能快速恢复你的阅读收藏。
如果觉得本文对你有帮助,请点赞收藏,也欢迎在评论区分享你的书源管理心得!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00