首页
/ Apache Linkis 使用教程

Apache Linkis 使用教程

2024-09-02 20:53:12作者:柏廷章Berta

项目介绍

Apache Linkis 构建了一个计算中间件层,用于促进上层应用与底层数据引擎之间的连接治理和编排。通过使用 Linkis 提供的标准接口(如 REST/WS/JDBC),上层应用可以轻松访问底层引擎(如 MySQL/Spark/Hive/Presto/Flink 等),并实现用户资源的互通,如统一变量、脚本、UDF、函数和资源文件等。作为一个计算中间件,Linkis 提供了强大的连接性、复用性、编排、扩展和治理能力。通过解耦应用层和引擎层,简化了复杂的网络调用关系,从而降低了整体复杂性,节省了开发和维护成本。

项目快速启动

环境准备

  • JDK 1.8 或更高版本
  • Maven 3.3 或更高版本
  • Docker(可选,用于容器化部署)

快速部署

  1. 克隆项目

    git clone https://github.com/apache/linkis.git
    cd linkis
    
  2. 构建项目

    mvn clean install -DskipTests
    
  3. 启动 Linkis

    cd linkis-dist/target/linkis-x.x.x-dist
    ./bin/start-all.sh
    

示例代码

以下是一个简单的示例,展示如何通过 Linkis 提交一个 Spark 任务:

import org.apache.linkis.httpclient.dws.authentication.StaticAuthenticationStrategy;
import org.apache.linkis.httpclient.dws.config.DWSClientConfig;
import org.apache.linkis.httpclient.dws.config.DWSClientConfigBuilder;
import org.apache.linkis.httpclient.dws.exception.DWSClientException;
import org.apache.linkis.httpclient.dws.request.JobSubmitAction;
import org.apache.linkis.httpclient.dws.response.JobExecuteResult;
import org.apache.linkis.httpclient.dws.response.JobInfoResult;
import org.apache.linkis.httpclient.dws.response.JobProgressResult;

public class LinkisExample {
    public static void main(String[] args) {
        DWSClientConfig clientConfig = ((DWSClientConfigBuilder) (new DWSClientConfigBuilder())
            .addUJESServerUrl("http://localhost:8088"))
            .connectionTimeout(30000)
            .discoveryEnabled(false)
            .discoveryFrequency(1, TimeUnit.MINUTES)
            .loadbalancerEnabled(true)
            .maxConnectionSize(5)
            .retryEnabled(false)
            .readTimeout(30000)
            .setAuthenticationStrategy(new StaticAuthenticationStrategy())
            .setDWSVersion("v1")
            .build();

        JobSubmitAction jobSubmitAction = JobSubmitAction.builder()
            .addExecuteCode("show tables")
            .setEngineType(JobSubmitAction.EngineType$.MODULE$.SPARK())
            .setUser("hadoop")
            .build();

        JobExecuteResult jobExecuteResult = new LinkisClient().submit(jobSubmitAction);
        System.out.println("Job ID: " + jobExecuteResult.taskID());
    }
}

应用案例和最佳实践

案例一:数据分析平台

某公司使用 Linkis 构建了一个数据分析平台,通过 Linkis 连接多个数据引擎(如 Spark、Hive 和 Presto),实现了数据的统一管理和分析。用户可以通过 Linkis 提供的 Web 界面提交 SQL 查询,Linkis 自动选择最合适的引擎执行查询,大大提高了数据分析的效率和灵活性。

案例二:实时数据处理

另一家公司利用 Linkis 进行实时数据处理,通过 Linkis 连接 Flink 和 Kafka,实现了实时数据流的处理和分析。Linkis 的编排能力使得复杂的实时数据处理流程变得简单和可管理。

典型生态项目

1. Apache DolphinScheduler

Apache DolphinScheduler 是一个分布式易扩展的可视化工作流任务调度平台,与 Linkis 结合使用,可以实现复杂的数据处理和分析任务的自动化调度。

2. Apache Flink

Apache Flink

登录后查看全文
热门项目推荐
相关项目推荐