首页
/ Apache Linkis 使用教程

Apache Linkis 使用教程

2024-09-02 05:50:50作者:柏廷章Berta

项目介绍

Apache Linkis 构建了一个计算中间件层,用于促进上层应用与底层数据引擎之间的连接治理和编排。通过使用 Linkis 提供的标准接口(如 REST/WS/JDBC),上层应用可以轻松访问底层引擎(如 MySQL/Spark/Hive/Presto/Flink 等),并实现用户资源的互通,如统一变量、脚本、UDF、函数和资源文件等。作为一个计算中间件,Linkis 提供了强大的连接性、复用性、编排、扩展和治理能力。通过解耦应用层和引擎层,简化了复杂的网络调用关系,从而降低了整体复杂性,节省了开发和维护成本。

项目快速启动

环境准备

  • JDK 1.8 或更高版本
  • Maven 3.3 或更高版本
  • Docker(可选,用于容器化部署)

快速部署

  1. 克隆项目

    git clone https://github.com/apache/linkis.git
    cd linkis
    
  2. 构建项目

    mvn clean install -DskipTests
    
  3. 启动 Linkis

    cd linkis-dist/target/linkis-x.x.x-dist
    ./bin/start-all.sh
    

示例代码

以下是一个简单的示例,展示如何通过 Linkis 提交一个 Spark 任务:

import org.apache.linkis.httpclient.dws.authentication.StaticAuthenticationStrategy;
import org.apache.linkis.httpclient.dws.config.DWSClientConfig;
import org.apache.linkis.httpclient.dws.config.DWSClientConfigBuilder;
import org.apache.linkis.httpclient.dws.exception.DWSClientException;
import org.apache.linkis.httpclient.dws.request.JobSubmitAction;
import org.apache.linkis.httpclient.dws.response.JobExecuteResult;
import org.apache.linkis.httpclient.dws.response.JobInfoResult;
import org.apache.linkis.httpclient.dws.response.JobProgressResult;

public class LinkisExample {
    public static void main(String[] args) {
        DWSClientConfig clientConfig = ((DWSClientConfigBuilder) (new DWSClientConfigBuilder())
            .addUJESServerUrl("http://localhost:8088"))
            .connectionTimeout(30000)
            .discoveryEnabled(false)
            .discoveryFrequency(1, TimeUnit.MINUTES)
            .loadbalancerEnabled(true)
            .maxConnectionSize(5)
            .retryEnabled(false)
            .readTimeout(30000)
            .setAuthenticationStrategy(new StaticAuthenticationStrategy())
            .setDWSVersion("v1")
            .build();

        JobSubmitAction jobSubmitAction = JobSubmitAction.builder()
            .addExecuteCode("show tables")
            .setEngineType(JobSubmitAction.EngineType$.MODULE$.SPARK())
            .setUser("hadoop")
            .build();

        JobExecuteResult jobExecuteResult = new LinkisClient().submit(jobSubmitAction);
        System.out.println("Job ID: " + jobExecuteResult.taskID());
    }
}

应用案例和最佳实践

案例一:数据分析平台

某公司使用 Linkis 构建了一个数据分析平台,通过 Linkis 连接多个数据引擎(如 Spark、Hive 和 Presto),实现了数据的统一管理和分析。用户可以通过 Linkis 提供的 Web 界面提交 SQL 查询,Linkis 自动选择最合适的引擎执行查询,大大提高了数据分析的效率和灵活性。

案例二:实时数据处理

另一家公司利用 Linkis 进行实时数据处理,通过 Linkis 连接 Flink 和 Kafka,实现了实时数据流的处理和分析。Linkis 的编排能力使得复杂的实时数据处理流程变得简单和可管理。

典型生态项目

1. Apache DolphinScheduler

Apache DolphinScheduler 是一个分布式易扩展的可视化工作流任务调度平台,与 Linkis 结合使用,可以实现复杂的数据处理和分析任务的自动化调度。

2. Apache Flink

Apache Flink

登录后查看全文
热门项目推荐
相关项目推荐

项目优选

收起
kernelkernel
deepin linux kernel
C
22
6
docsdocs
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
197
2.17 K
ohos_react_nativeohos_react_native
React Native鸿蒙化仓库
C++
208
285
pytorchpytorch
Ascend Extension for PyTorch
Python
59
94
RuoYi-Vue3RuoYi-Vue3
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
973
574
nop-entropynop-entropy
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
9
1
ops-mathops-math
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
549
81
openHiTLSopenHiTLS
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!
C
1.02 K
399
communitycommunity
本项目是CANN开源社区的核心管理仓库,包含社区的治理章程、治理组织、通用操作指引及流程规范等基础信息
393
27
MateChatMateChat
前端智能化场景解决方案UI库,轻松构建你的AI应用,我们将持续完善更新,欢迎你的使用与建议。 官网地址:https://matechat.gitcode.com
1.2 K
133