终极番茄小说下载神器:Tomato-Novel-Downloader 让你离线畅读无忧
Tomato-Novel-Downloader 是一款专为小说爱好者打造的免费小说下载工具,支持一键抓取番茄小说平台内容并生成 EPUB 格式电子书,让你随时随地享受离线阅读的乐趣。无论是通勤途中还是网络不佳的环境,都能轻松访问心仪的小说内容。
为什么选择这款小说下载神器?
对于经常追更小说的读者来说,反复打开网页等待加载、担心章节下架的体验实在糟糕。这款工具通过智能化的网页解析技术,将繁琐的手动复制粘贴变成简单的一键操作,帮你节省 90% 的整理时间!
核心功能亮点
- 一键批量下载:只需输入小说链接,自动抓取全本章节,告别逐章保存的烦恼
- 标准 EPUB 格式:生成的电子书完美支持 Kindle、手机阅读器等各类设备
- 断点续传技术:网络中断也不怕,重新连接后自动从上次进度继续下载
- 极速解析引擎:采用多线程并发处理,下载速度提升 3 倍以上
- 有声小说生成:内置 edge-tts 语音合成功能,可将文本转换为有声读物
超简单的使用指南
环境准备(30秒搞定)
确保你的电脑已安装 Python 环境,通过以下命令快速配置依赖:
git clone https://gitcode.com/gh_mirrors/to/Tomato-Novel-Downloader
cd Tomato-Novel-Downloader
pip install -r requirements.txt
开始下载小说(只需2步)
- 运行主程序:
python main.py - 在弹出的窗口中粘贴小说详情页 URL,点击「开始下载」按钮
程序会自动创建 downloads 文件夹,所有电子书将保存在这里。对于需要批量管理的用户,可通过 novel_src/book_manager.py 模块进行书架分类管理。
有声小说生成功能
从当前版本开始,程序内置了 edge-tts 语音合成功能,可在下载文本后自动生成对应的有声小说:
- 在配置菜单中启用"是否生成有声小说",即可在每次下载完成后生成音频文件
- 默认发音人是
zh-CN-XiaoxiaoNeural,可以自定义语速、音量、音调 - 支持 MP3 或 WAV 输出格式,音频按章节顺序命名存放
- 可在"有声小说并发数"中调整并发任务数量
安全与合规说明
本工具仅用于个人学习研究使用,所有下载内容请在24小时内删除。项目严格遵循开源协议,代码结构清晰可审计:
- 网络请求模块:novel_src/network_parser/
- 格式转换核心:novel_src/book_parser/epub_generator.py
进阶技巧分享
- 批量下载设置:在
novel_src/constants.py中可调整并发线程数(建议设为5-8) - 自定义封面:将图片命名为
cover.jpg放在小说文件夹,生成 EPUB 时会自动替换封面 - 章节过滤:通过
segment_utils.py可设置需要跳过的章节关键词
常见问题解决
Q: 下载速度慢怎么办?
A: 尝试修改 network.py 中的超时设置,或在非高峰时段下载
Q: 生成的 EPUB 在某些设备上排版错乱?
A: 使用 finalize_utils.py 提供的格式修复功能,重新处理电子书文件
Q: 手机端可以正常运行吗?
A: 仅限安卓设备可以正常运行,需要安装 Termux 并运行部署脚本
注意事项
由于使用的是第三方API,可能会出现暂时失效的情况。如果遇到下载失败,请稍后再试。不建议下载大于1500章的小说,以免对服务器造成过大压力。
切记不能将此程序用于违法用途,下载到的小说仅供自行阅读,看完之后请立即删除文件,以免造成侵权。
加入开源社区
项目仍在持续优化中,欢迎通过以下方式参与贡献:
- 提交 Issue 反馈 bug 或建议
- 贡献代码改进解析算法
- 分享使用技巧到项目讨论区
现在就用这款高效小说下载工具解放你的双手,让阅读回归纯粹的享受吧!无论是热门网文还是经典作品,都能轻松收入你的电子书架。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
