首页
/ Apache Hudi 技术文档

Apache Hudi 技术文档

2024-12-23 17:46:15作者:幸俭卉

1. 安装指南

1.1 环境要求

在开始安装之前,请确保您的系统满足以下要求:

  • Unix-like 系统(如 Linux, Mac OS X)
  • Java 8, 11 或 17
  • Git
  • Maven(版本 >= 3.6.0)

1.2 从源码构建

  1. 克隆代码库并进入项目目录:

    git clone https://github.com/apache/hudi.git && cd hudi
    
  2. 使用 Maven 构建项目:

    mvn clean package -DskipTests
    
  3. 启动 Spark Shell:

    spark-3.5.0-bin-hadoop3/bin/spark-shell \
      --jars `ls packaging/hudi-spark-bundle/target/hudi-spark3.5-bundle_2.12-*.*.*-SNAPSHOT.jar` \
      --conf 'spark.serializer=org.apache.spark.serializer.KryoSerializer' \
      --conf 'spark.sql.extensions=org.apache.spark.sql.hudi.HoodieSparkSessionExtension' \
      --conf 'spark.sql.catalog.spark_catalog=org.apache.spark.sql.hudi.catalog.HoodieCatalog' \
      --conf 'spark.kryo.registrator=org.apache.spark.HoodieSparkKryoRegistrar'
    

1.3 构建不同版本的 Spark 和 Flink

  • Spark 版本:默认使用 Spark 3.5.x 和 Scala 2.12。可以通过 -Dspark3.x 参数指定其他版本,例如 -Dspark3.4 表示使用 Spark 3.4.x。
  • Flink 版本:默认使用 Flink 1.20.x。可以通过 -Dflink1.x 参数指定其他版本,例如 -Dflink1.19 表示使用 Flink 1.19。

2. 项目的使用说明

2.1 项目概述

Apache Hudi 是一个开源的数据湖平台,支持在云环境中高效地摄取、索引、存储、服务、转换和管理数据。Hudi 提供了多种功能,包括数据摄取、存储优化、索引、写入和查询等。

2.2 主要功能

  • 数据摄取:支持多种文件格式和数据源,如 Apache Kafka、数据库变更日志等。
  • 存储优化:自动管理文件大小和布局,支持行和列存储格式。
  • 索引:提供可扩展的索引系统,加速查询。
  • 写入:支持原子提交、快照隔离和并发控制。
  • 查询:支持多种查询类型,如快照查询、增量查询、变更数据捕获查询等。

2.3 使用场景

Hudi 适用于需要高效管理大规模数据湖的场景,特别是在云环境中进行数据摄取、存储和查询的场景。

3. 项目API使用文档

3.1 核心API

  • HoodieWriteClient:用于数据写入的核心API,支持插入、更新和删除操作。
  • HoodieReadClient:用于数据读取的核心API,支持快照查询、增量查询等。

3.2 配置参数

  • spark.serializer:指定序列化器,推荐使用 org.apache.spark.serializer.KryoSerializer
  • spark.sql.extensions:启用 Hudi 的 SQL 扩展。
  • spark.sql.catalog.spark_catalog:指定 Hudi 的 Catalog 实现。

3.3 示例代码

import org.apache.hudi.QuickstartUtils._
import org.apache.spark.sql.SaveMode._

val dataGen = new DataGenerator()
val inserts = convertToStringList(dataGen.generateInserts(100))
val df = spark.read.json(spark.sparkContext.parallelize(inserts, 2))

df.write.format("hudi").
  options(getQuickstartWriteConfigs).
  option(PRECOMBINE_FIELD_OPT_KEY, "ts").
  option(RECORDKEY_FIELD_OPT_KEY, "uuid").
  option(PARTITIONPATH_FIELD_OPT_KEY, "partitionpath").
  option(TABLE_NAME, "hudi_table").
  mode(Overwrite).
  save("path/to/hudi_table")

4. 项目安装方式

4.1 通过 Maven 安装

在项目的 pom.xml 中添加以下依赖:

<dependency>
  <groupId>org.apache.hudi</groupId>
  <artifactId>hudi-spark-bundle</artifactId>
  <version>0.13.0</version>
</dependency>

4.2 通过 Spark Shell 使用

在启动 Spark Shell 时,加载 Hudi 的 JAR 包:

spark-shell --jars hudi-spark-bundle_2.12-0.13.0.jar

4.3 通过 Flink 使用

在 Flink 项目中,添加 Hudi 的依赖:

<dependency>
  <groupId>org.apache.hudi</groupId>
  <artifactId>hudi-flink-bundle</artifactId>
  <version>0.13.0</version>
</dependency>

通过以上步骤,您可以成功安装并使用 Apache Hudi 项目。

登录后查看全文
热门项目推荐
相关项目推荐

项目优选

收起
kernelkernel
deepin linux kernel
C
22
6
docsdocs
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
203
2.18 K
ohos_react_nativeohos_react_native
React Native鸿蒙化仓库
C++
208
285
pytorchpytorch
Ascend Extension for PyTorch
Python
62
94
RuoYi-Vue3RuoYi-Vue3
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
977
575
nop-entropynop-entropy
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
9
1
ops-mathops-math
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
550
84
openHiTLSopenHiTLS
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!
C
1.02 K
399
communitycommunity
本项目是CANN开源社区的核心管理仓库,包含社区的治理章程、治理组织、通用操作指引及流程规范等基础信息
393
27
MateChatMateChat
前端智能化场景解决方案UI库,轻松构建你的AI应用,我们将持续完善更新,欢迎你的使用与建议。 官网地址:https://matechat.gitcode.com
1.2 K
133