【亲测免费】 Flume-ng-sql-source 使用教程
2026-01-16 09:45:57作者:滑思眉Philip
1. 项目介绍
flume-ng-sql-source 是一个Apache Flume的扩展插件,允许Flume从SQL数据库中收集数据。项目集成了Hibernate,因此理论上支持所有Hibernate兼容的数据库引擎。它能够处理增量查询,且输出格式可配置为JSON。
2. 项目快速启动
依赖安装
首先确保已经安装了Apache Flume和Maven。
下载项目
克隆项目仓库:
git clone https://github.com/keedio/flume-ng-sql-source.git
编译与打包
进入项目目录并执行以下命令来编译和创建JAR包:
cd flume-ng-sql-source
mvn package
部署
将生成的JAR包复制到Flume的插件目录:
cp target/flume-ng-sql-source-*.jar $FLUME_HOME/plugins.d/
创建配置文件
创建一个Flume配置文件,例如 sql-source.conf:
agent.sources = sqlSrc
agent.channels = memChannel
agent.sinks = hdfsSink
agent.sources.sqlSrc.type = org.keedio.flume.source.SQLSource
agent.sources.sqlSrc.connectionURL = jdbc:mysql://localhost:3306/mydb?useSSL=false
agent.sources.sqlSrc.username = myuser
agent.sources.sqlSrc.password = password
agent.sources.sqlSrc.query = SELECT * FROM mytable WHERE timestamp > ${lastEventTime}
agent.sources.sqlSrc.resultHandler.className = org.keedio.flume.handler.JsonEventHandler
agent.sources.sqlSrc.useLastEventTimeAsTimestamp = true
agent.sources.sqlSrc.interceptors = tsi
agent.sources.sqlSrc.interceptors.tsi.type = timestamp
agent.sources.sqlSrc.interceptors.tsi.timestampFormat = yyyy-MM-dd'T'HH:mm:ss.SSSXXX
agent.channels.memChannel.type = memory
agent.channels.memChannel.capacity = 1000
agent.channels.memChannel.transactionCapacity = 100
agent.sinks.hdfsSink.type = hdfs
agent.sinks.hdfsSink.channel = memChannel
agent.sinks.hdfsSink.hdfs.path = hdfs://namenode:9000/user/flume/events
agent.sinks.hdfsSink.hdfs.filePrefix = events-
agent.sinks.hdfsSink.hdfs.fileSuffix = .txt
agent.sinks.hdfsSink.hdfs.writeFormat = Text
agent.sinks.hdfsSink.hdfs.batchSize = 100
agent.sinks.hdfsSink.hdfs.rollInterval = 3600
agent.sinks.hdfsSink.hdfs.rollCount = 0
agent.sinks.hdfsSink.hdfs.rollSize = 0
启动Flume Agent
运行Flume Agent:
flume-ng agent --conf ./conf --conf-file sql-source.conf --name agent -Dflume.root.logger=INFO,console
3. 应用案例和最佳实践
实时日志监控
使用flume-ng-sql-source从数据库的日志表中收集信息,实时监控系统状态,异常报警等。
数据迁移
在数据库升级或迁移过程中,利用该工具实现旧库到新库的数据实时同步。
流式分析
结合Hadoop生态系统中的其他工具(如Spark Streaming),实现实时数据分析和流式处理。
最佳实践
- 配置增量查询:通过设置特定的时间字段以避免重复读取数据。
- 错误处理:为源添加适当的拦截器,以便捕获并处理SQL查询可能遇到的错误。
- 性能优化:调整Flume配置参数,如通道容量和事务大小,以适应负载需求。
4. 典型生态项目
- Apache Flume: 数据收集框架,用于构建可靠、分布式的日志聚合系统。
- Apache Hadoop: 提供大规模数据集的存储和计算能力,是Flume数据流入的主要目的地之一。
- Apache Kafka: 引入Kafka作为中介,可以在Flume与Hadoop之间提供更高的吞吐量和更灵活的数据传输。
- HBase: 结合HDFS使用,提供NoSQL数据库服务,可用于存储Flume采集的实时数据。
- Apache Spark: 提供流处理和批处理能力,可以与Flume整合,进行实时分析和处理。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust0137- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniCPM-V-4.6这是 MiniCPM-V 系列有史以来效率与性能平衡最佳的模型。它以仅 1.3B 的参数规模,实现了性能与效率的双重突破,在全球同尺寸模型中登顶,全面超越了阿里 Qwen3.5-0.8B 与谷歌 Gemma4-E2B-it。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
MusicFreeDesktop插件化、定制化、无广告的免费音乐播放器TypeScript00
最新内容推荐
项目优选
收起
暂无描述
Dockerfile
725
4.66 K
Ascend Extension for PyTorch
Python
597
749
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
425
377
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
992
985
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
981
137
昇腾LLM分布式训练框架
Python
160
190
暂无简介
Dart
969
246
deepin linux kernel
C
29
16
Oohos_react_native
React Native鸿蒙化仓库
C++
345
393
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.65 K
970