FanFicFare v4.42.0 版本发布:小说抓取工具的重要更新
FanFicFare 是一个功能强大的小说抓取工具,它能够从多个在线小说网站下载故事内容并转换为电子书格式。该项目既提供了 Calibre 插件版本,也支持命令行界面使用,是小说爱好者和数字阅读者的实用工具。
核心功能更新
本次发布的 v4.42.0 版本包含多项重要改进和优化:
网站适配器更新:
- 对 fanfictalk.com 适配器进行了域名和匹配模式的更新
- 移除了多个已失效或迁移的网站支持,包括 starskyhutcharchive.net、fastnovels.net、novelupdates.cc 和 ponyfictionarchive.net
- 针对 wwwaneroticstorycom 适配器进行了站点变更的兼容性更新
- fictionmaniatv 适配器升级为 HTTPS 协议支持
缓存系统增强:
- 浏览器简单缓存系统增加了原始响应时间字段
- 移除了 browser_cache_simple_header_old 选项
- 修复了在 Mac 和 Linux 系统上使用 Chrome 浏览器时缓存失效的问题
功能优化:
- 新增 no_image_processing_regexp 选项,为用户提供了更灵活的图片处理控制
- 对 requests_toolbelt 依赖进行了精简,移除了未使用的部分以避免潜在的依赖冲突问题
- 对 defaults.ini 配置文件进行了重新按字母顺序排列,提高了可维护性
安装与升级指南
Calibre 插件安装: 用户可以直接下载提供的插件压缩包,或通过 Calibre 的"获取插件"功能进行安装。插件安装过程简单直观,适合大多数普通用户。
命令行界面安装: 对于高级用户,FanFicFare 提供了基于 pip 的 Python 包安装方式:
- 首次安装:
pip install FanFicFare - 升级现有版本:
pip install --upgrade FanFicFare
安装完成后,用户可以通过运行 fanficfare -h 命令查看所有可用选项和帮助信息。pip 包管理器会自动处理所有必要的依赖关系,简化了安装过程。
技术细节解析
本次更新中值得注意的技术改进包括:
缓存系统优化: 新的缓存机制不仅修复了跨平台兼容性问题,还通过添加原始响应时间字段提高了缓存数据的完整性和可靠性。这一改进对于需要频繁抓取更新内容的用户尤为重要。
依赖管理: 项目团队对 requests_toolbelt 依赖进行了精心修剪,只保留了必要的组件。这种精细化的依赖管理减少了潜在冲突的可能性,提高了工具的稳定性和兼容性。
配置优化: defaults.ini 文件的重新排序虽然看似简单,但实际上提高了配置文件的可读性和可维护性,使开发者能更高效地进行后续开发和维护工作。
使用建议
对于普通用户,建议通过 Calibre 插件进行升级,这是最简单直接的方式。开发者或高级用户则可以考虑使用 pip 安装命令行版本,以获得更灵活的控制选项。
新增加的 no_image_processing_regexp 选项为有特殊需求的用户提供了更多控制权,特别是对于那些希望自定义图片处理流程的场景。用户可以参考文档了解该选项的具体用法和正则表达式格式要求。
总体而言,v4.42.0 版本在保持核心功能稳定的同时,通过多项优化提升了工具的可靠性、兼容性和用户体验,是值得所有用户升级的一个版本。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00