Apache StormCrawler 3.4.0 发布:文本提取器重构与多项功能增强
项目概述
Apache StormCrawler 是一个基于 Apache Storm 构建的开源、分布式网络爬虫框架。它专为大规模、可扩展的网络爬取任务设计,提供了丰富的插件和扩展点,能够高效地抓取、解析和索引网页内容。StormCrawler 广泛应用于搜索引擎、数据挖掘、商业智能等领域。
版本亮点
文本提取器重大重构
在 3.4.0 版本中,开发团队对文本提取功能进行了架构层面的重构,这是本次更新的核心变化:
-
接口化改造:原有的
TextExtractor类被重构为一个接口,这为未来的扩展提供了更大的灵活性。接口化设计允许开发者更容易地实现自定义的文本提取逻辑。 -
默认实现更名:原来的
TextExtractor实现类现在更名为JSoupTextExtractor,更准确地反映了其基于 JSoup 库的实现本质。 -
向后兼容性:对于大多数用户来说,如果之前没有在配置中显式指定
textextractor.class,则无需任何修改,系统会自动使用新的默认实现。只有那些自定义了文本提取器的用户需要进行适配。
这项重构为未来支持更多样化的文本提取方式奠定了基础,比如后面会提到的 LLM 集成。
新增 LLM 文本提取器
3.4.0 版本引入了一个创新的 LLMTextExtractor,它利用大型语言模型(如 OpenAI 的 API 或兼容服务)来提取网页文本内容。这个特性为需要高质量内容提取的场景提供了新的选择:
- 能够理解网页的语义结构,提取更相关的内容
- 适用于复杂布局或动态生成内容的网页
- 可通过配置轻松集成各种兼容 OpenAI API 的服务
Solr 连接优化
针对使用 Solr 作为后端的用户,3.4.0 版本带来了两项重要改进:
-
异步查询支持:显著提高了与 Solr 交互的效率,特别是在高并发场景下。
-
云模式批量更新:优化了 Solr Cloud 环境下的批量更新操作,减少了网络开销。
OpenSearch 缓冲配置
对于 OpenSearch 用户,新版本增加了响应缓冲区大小的配置选项,允许根据实际硬件条件和网络环境调整性能参数,这在处理大规模数据时尤为重要。
其他改进
-
依赖库升级:包括 JSoup、Tika、TestContainers 等多个关键依赖的版本更新,带来性能提升和安全修复。
-
测试覆盖率改进:重新启用了测试覆盖率失败时的保留机制,便于问题诊断。
-
文档完善:更新了多个模块的 README 文件,明确了 Java 17 的要求。
-
代理管理器增强:使
ProxyManager返回 Optional 类型,提高了无代理场景下的代码健壮性。
升级建议
对于计划升级到 3.4.0 版本的用户,需要注意以下几点:
-
如果项目中直接使用了
TextExtractor类或通过textextractor.class配置指定了自定义实现,需要相应调整为新的接口和类名。 -
新版本已全面转向 Java 17 环境,确保开发和生产环境兼容。
-
对于使用 Solr 或 OpenSearch 的用户,建议评估新特性带来的性能改进,适当调整配置参数。
-
考虑尝试新的 LLM 文本提取器,特别是在处理复杂网页内容时可能获得更好的效果。
结语
Apache StormCrawler 3.4.0 通过文本提取器的重构和多项功能增强,进一步提升了框架的灵活性和性能。特别是 LLM 集成展示了项目对新兴技术的快速适应能力,为高质量内容提取提供了新的可能性。这些改进使得 StormCrawler 在大规模网络数据采集和处理领域继续保持领先地位。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
ruoyi-plus-soybeanRuoYi-Plus-Soybean 是一个现代化的企业级多租户管理系统,它结合了 RuoYi-Vue-Plus 的强大后端功能和 Soybean Admin 的现代化前端特性,为开发者提供了完整的企业管理解决方案。Vue06- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00