【亲测免费】 Flume-ng-sql-source 使用教程
2026-01-16 09:45:57作者:滑思眉Philip
1. 项目介绍
flume-ng-sql-source 是一个Apache Flume的扩展插件,允许Flume从SQL数据库中收集数据。项目集成了Hibernate,因此理论上支持所有Hibernate兼容的数据库引擎。它能够处理增量查询,且输出格式可配置为JSON。
2. 项目快速启动
依赖安装
首先确保已经安装了Apache Flume和Maven。
下载项目
克隆项目仓库:
git clone https://github.com/keedio/flume-ng-sql-source.git
编译与打包
进入项目目录并执行以下命令来编译和创建JAR包:
cd flume-ng-sql-source
mvn package
部署
将生成的JAR包复制到Flume的插件目录:
cp target/flume-ng-sql-source-*.jar $FLUME_HOME/plugins.d/
创建配置文件
创建一个Flume配置文件,例如 sql-source.conf:
agent.sources = sqlSrc
agent.channels = memChannel
agent.sinks = hdfsSink
agent.sources.sqlSrc.type = org.keedio.flume.source.SQLSource
agent.sources.sqlSrc.connectionURL = jdbc:mysql://localhost:3306/mydb?useSSL=false
agent.sources.sqlSrc.username = myuser
agent.sources.sqlSrc.password = password
agent.sources.sqlSrc.query = SELECT * FROM mytable WHERE timestamp > ${lastEventTime}
agent.sources.sqlSrc.resultHandler.className = org.keedio.flume.handler.JsonEventHandler
agent.sources.sqlSrc.useLastEventTimeAsTimestamp = true
agent.sources.sqlSrc.interceptors = tsi
agent.sources.sqlSrc.interceptors.tsi.type = timestamp
agent.sources.sqlSrc.interceptors.tsi.timestampFormat = yyyy-MM-dd'T'HH:mm:ss.SSSXXX
agent.channels.memChannel.type = memory
agent.channels.memChannel.capacity = 1000
agent.channels.memChannel.transactionCapacity = 100
agent.sinks.hdfsSink.type = hdfs
agent.sinks.hdfsSink.channel = memChannel
agent.sinks.hdfsSink.hdfs.path = hdfs://namenode:9000/user/flume/events
agent.sinks.hdfsSink.hdfs.filePrefix = events-
agent.sinks.hdfsSink.hdfs.fileSuffix = .txt
agent.sinks.hdfsSink.hdfs.writeFormat = Text
agent.sinks.hdfsSink.hdfs.batchSize = 100
agent.sinks.hdfsSink.hdfs.rollInterval = 3600
agent.sinks.hdfsSink.hdfs.rollCount = 0
agent.sinks.hdfsSink.hdfs.rollSize = 0
启动Flume Agent
运行Flume Agent:
flume-ng agent --conf ./conf --conf-file sql-source.conf --name agent -Dflume.root.logger=INFO,console
3. 应用案例和最佳实践
实时日志监控
使用flume-ng-sql-source从数据库的日志表中收集信息,实时监控系统状态,异常报警等。
数据迁移
在数据库升级或迁移过程中,利用该工具实现旧库到新库的数据实时同步。
流式分析
结合Hadoop生态系统中的其他工具(如Spark Streaming),实现实时数据分析和流式处理。
最佳实践
- 配置增量查询:通过设置特定的时间字段以避免重复读取数据。
- 错误处理:为源添加适当的拦截器,以便捕获并处理SQL查询可能遇到的错误。
- 性能优化:调整Flume配置参数,如通道容量和事务大小,以适应负载需求。
4. 典型生态项目
- Apache Flume: 数据收集框架,用于构建可靠、分布式的日志聚合系统。
- Apache Hadoop: 提供大规模数据集的存储和计算能力,是Flume数据流入的主要目的地之一。
- Apache Kafka: 引入Kafka作为中介,可以在Flume与Hadoop之间提供更高的吞吐量和更灵活的数据传输。
- HBase: 结合HDFS使用,提供NoSQL数据库服务,可用于存储Flume采集的实时数据。
- Apache Spark: 提供流处理和批处理能力,可以与Flume整合,进行实时分析和处理。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00
项目优选
收起
deepin linux kernel
C
28
15
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
660
4.26 K
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.54 K
894
Ascend Extension for PyTorch
Python
505
610
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
392
289
暂无简介
Dart
909
219
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
69
21
昇腾LLM分布式训练框架
Python
142
168
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
940
867
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.33 K
108