首页
/ AIFlow本地快速入门指南:从安装到运行第一个工作流

AIFlow本地快速入门指南:从安装到运行第一个工作流

2025-06-01 20:02:58作者:宗隆裙

前言

AIFlow是一个基于事件驱动的工作流编排系统,它扩展了Flink的能力,为机器学习工作流提供了强大的编排功能。本文将手把手教你如何在本地环境中安装、配置和运行AIFlow,并完成第一个工作流的创建和执行。

环境准备

在开始之前,请确保你的本地工作站满足以下条件:

  • Python 3.6或更高版本
  • 已安装AIFlow(可通过pip安装)

服务启动

1. 启动通知服务

AIFlow依赖通知服务作为事件分发器,这是整个系统的核心组件之一。

# 设置通知服务主目录(默认为~/notification_service)
export NOTIFICATION_HOME=~/notification_service

# 初始化配置
notification config init 

# 初始化数据库
notification db init

# 以后台方式启动服务
notification server start -d

2. 启动AIFlow服务

# 设置AIFlow主目录(默认为~/aiflow)
export AIFLOW_HOME=~/aiflow

# 初始化配置
aiflow config init

# 初始化数据库
aiflow db init

# 以后台方式启动服务
aiflow server start -d

注意:如果在启动过程中遇到问题,可能是由于操作系统或版本差异导致的,建议检查日志文件获取详细信息。

创建并运行工作流

3. 定义工作流

下面是一个典型的事件驱动工作流示例,包含4个任务:

import time
from ai_flow.model.action import TaskAction
from ai_flow.notification.notification_client import AIFlowNotificationClient
from ai_flow.operators.bash import BashOperator
from ai_flow.operators.python import PythonOperator
from ai_flow.model.workflow import Workflow

EVENT_KEY = "custom_event_key"

def event_trigger_function():
    time.sleep(5)  # 模拟处理时间
    client = AIFlowNotificationClient("localhost:50052")
    print(f"触发自定义事件: {EVENT_KEY}")
    client.send_event(key=EVENT_KEY, value='自定义事件消息')

with Workflow(name='quickstart_workflow') as workflow:
    # 定义任务
    task1 = BashOperator(name='task1', bash_command='echo 这是第一个任务')
    task2 = BashOperator(name='task2', bash_command='echo 这是第二个任务')
    task3 = PythonOperator(name='task3', python_callable=event_trigger_function)
    task4 = BashOperator(name='task4', bash_command='echo 这是第四个任务')

    # 设置任务依赖关系
    task3.start_after([task1, task2])  # task3在task1和task2完成后启动
    
    # task4在收到自定义事件后启动
    task4.action_on_event_received(action=TaskAction.START, event_key=EVENT_KEY)

这个工作流展示了AIFlow的核心特性:

  1. 任务间的依赖关系管理
  2. 基于事件的触发机制
  3. 混合使用Bash和Python操作符

4. 上传工作流

将上述代码保存为Python文件后,使用以下命令上传:

aiflow workflow upload /path/to/your/workflow.py

5. 查看已上传的工作流

aiflow workflow list --namespace default

6. 执行工作流

aiflow workflow-execution start quickstart_workflow --namespace default

7. 监控执行结果

查看工作流执行状态:

aiflow workflow-execution list quickstart_workflow --namespace default

查看具体任务执行详情:

aiflow task-execution list <execution_id>

任务日志位于${AIFLOW_HOME}/logs目录下。

服务停止

完成工作流执行后,可以按以下顺序停止服务:

# 停止AIFlow服务
aiflow server stop

# 停止通知服务
notification server stop

进阶学习

掌握了基础使用后,你可以进一步探索:

  • 更复杂的工作流设计模式
  • 自定义操作符开发
  • 与机器学习框架的集成
  • 分布式部署方案

AIFlow提供了丰富的事件驱动机制和灵活的扩展能力,能够满足各种复杂场景下的工作流编排需求。通过本快速入门,你已经掌握了AIFlow的基本使用方法,可以开始构建自己的数据流水线或机器学习工作流了。

登录后查看全文
热门项目推荐