首页
/ ModelEngine快速入门指南

ModelEngine快速入门指南

2026-02-04 04:04:54作者:江焘钦

文章概要:本文详细介绍了如何在ModelEngine平台上搭建基础编排对话助手、工作流对话助手以及智能体应用,并配置模型服务。从创建应用到测试发布,逐步指导用户完成各类AI助手的开发与部署。

搭建基础编排对话助手

在 ModelEngine 中,搭建一个基础编排对话助手是一个快速且直观的过程。无论你是开发者还是非技术用户,都可以通过简单的配置和编排,实现一个功能丰富的对话式 AI 助手。以下是一个详细的步骤指南,帮助你快速上手。


1. 创建基础编排对话助手

首先,登录 ModelEngine 平台并进入应用开发页面。点击创建空白应用,选择对话助手作为应用类型,并选择基础编排作为编排手法。填写应用的基本信息,包括名称、分类和简介,然后点击创建

flowchart TD
    A[登录 ModelEngine] --> B[进入应用开发页面]
    B --> C[创建空白应用]
    C --> D[选择对话助手]
    D --> E[选择基础编排]
    E --> F[填写应用信息]
    F --> G[创建完成]

2. 配置基础聊天设置

在创建完成后,进入应用编辑页面,配置以下内容:

大模型调用

  • 模型选择:例如 Qwen/Qwen2.5-72B-Chat
  • 温度参数:控制生成结果的随机性,默认值为 0.3
  • 提示词:用于引导模型的输入内容。

知识库

  • 添加知识库,支持基于向量或关键词的内容检索。

开场白

  • 设置欢迎语,例如:“你好,我是一个对话助手,请输入内容开始对话。”

多轮对话

  • 启用对话记忆功能,让模型记住上下文。

猜你想问

  • 预置最多 3 条推荐问题,展示给用户。

创意灵感

  • 配置常用问题并按分类管理。
stateDiagram
    [*] --> 大模型调用
    大模型调用 --> 知识库
    知识库 --> 开场白
    开场白 --> 多轮对话
    多轮对话 --> 猜你想问
    猜你想问 --> 创意灵感

3. 测试与发布

完成配置后,点击测试按钮,验证对话助手的交互效果。测试通过后,点击发布按钮,填写发布信息并提交。发布成功后,应用将出现在应用市场中,用户可以直接访问。

sequenceDiagram
    participant 用户
    participant 平台
    用户->>平台: 点击测试
    平台->>用户: 返回测试结果
    用户->>平台: 点击发布
    平台->>用户: 发布成功

4. 应用详情与分享

发布后,系统会自动生成公开访问链接和北向接口链接。你可以在应用概览页面查看这些链接,并将其分享到外部平台或嵌入其他业务系统中。

pie
    title 应用分享方式
    "公开访问链接" : 45
    "北向接口链接" : 35
    "嵌入业务系统" : 20

通过以上步骤,你已经成功搭建了一个基础编排对话助手。接下来,你可以进一步探索高级编排功能,为助手添加更多复杂逻辑和交互能力。

搭建工作流对话助手

在 ModelEngine 中,工作流对话助手是一种强大的工具,能够通过逻辑编排实现复杂的对话交互。以下是一个详细的指南,帮助你快速搭建一个工作流对话助手。


准备工作

在开始之前,确保你已经完成以下准备工作:

  1. 登录 ModelEngine 平台。
  2. 创建一个空白应用,并选择“对话助手”作为应用类型。
  3. 选择“工作流编排”作为编排手法。

工作流编排基础

工作流编排的核心是通过节点组合实现逻辑控制。以下是支持的节点类型及其功能:

节点类型 功能描述
大模型 调用预设的大语言模型,实现文本生成、问答等能力。
代码 编写并运行 Python 代码,实现自定义逻辑或数据处理。
条件 设置流程判断条件,支持基于变量值进行分支逻辑跳转。
智能编排表单 收集用户输入的结构化信息,用于后续节点处理。
结束 表示流程终止点,执行到该节点后结束本轮工作流。
知识检索 对接知识库,实现基于向量或关键词的知识内容检索。
HTTP 调用 调用第三方或自有系统的 HTTP 接口,扩展外部能力。

示例:构建一个多轮对话工作流

以下是一个简单的多轮对话工作流示例,展示了如何通过节点组合实现逻辑控制。

flowchart TD
    A[开始] --> B[智能编排表单: 收集用户输入]
    B --> C{条件判断: 用户输入是否完整?}
    C -->|是| D[大模型: 生成回复]
    C -->|否| E[智能编排表单: 提示补充信息]
    E --> B
    D --> F[结束]

步骤说明:

  1. 智能编排表单:收集用户的初始输入。
  2. 条件判断:检查用户输入是否完整。如果不完整,返回表单提示补充信息。
  3. 大模型节点:如果输入完整,调用大模型生成回复。
  4. 结束节点:完成对话流程。

调试与优化

完成工作流编排后,使用调试工具测试对话逻辑:

  1. 在调试界面输入测试内容,观察工作流的执行路径。
  2. 根据测试结果优化节点配置,确保逻辑正确。
sequenceDiagram
    participant 用户
    participant 工作流
    用户->>工作流: 输入问题
    工作流->>工作流: 检查输入完整性
    工作流->>用户: 提示补充信息(如不完整)
    用户->>工作流: 补充输入
    工作流->>工作流: 调用大模型生成回复
    工作流->>用户: 返回回复

发布与分享

完成调试后,点击“发布”按钮将对话助手发布到应用市场。发布后,你可以:

  1. 获取公开访问链接,分享给其他用户。
  2. 将助手嵌入到其他业务系统中。
pie
    title 发布后功能分布
    "公开访问" : 45
    "嵌入业务系统" : 35
    "API 调用" : 20

通过以上步骤,你可以快速搭建一个功能强大的工作流对话助手,满足复杂的业务需求。

搭建智能体应用

智能体是 ModelEngine 中一种高级 AI 应用,能够通过集成多种工具和知识库,实现复杂的任务处理和交互能力。以下将详细介绍如何从零开始搭建一个智能体应用,并通过示例展示其核心功能。


1. 创建智能体项目

  1. 登录 ModelEngine 平台,进入应用使能模块。
  2. 点击创建空白应用,选择智能体类型。
  3. 填写智能体的基本信息:
    • 名称:例如“医疗问答助手”。
    • 简介:描述智能体的用途,如“基于医疗知识库的问答助手”。
    • 开场白:设置用户首次打开应用时的欢迎语,例如“您好,我是医疗问答助手,请问有什么可以帮您?”

2. 配置智能体能力

智能体的核心能力包括模型调用工具集成知识库接入。以下是详细配置步骤:

模型调用

  • 选择预设的大语言模型(如 Qwen/Qwen2.5-72B-Chat)。
  • 设置温度参数(默认 0.3),控制生成结果的随机性。
  • 输入提示词,例如“你是一个专业的医疗问答助手,请根据用户问题提供准确的回答。”

工具集成

  • 点击工具选项卡,添加以下工具:
    • 天气查询:用于回答与天气相关的健康建议。
    • 翻译工具:支持多语言问答。
    • 计算器:用于处理医疗数据计算。

知识库接入

  • 点击知识库选项卡,上传医疗领域的文档(如 PDF、TXT 格式)。
  • 系统会自动将文档向量化,并支持基于关键词或语义的检索。

3. 编排智能体逻辑

通过工作流编排工具,可以定义智能体的交互逻辑。以下是一个示例流程:

flowchart TD
    A[用户提问] --> B{是否需要工具?}
    B -->|是| C[调用工具]
    B -->|否| D[调用大模型]
    C --> E[返回工具结果]
    D --> F[返回模型回答]
    E --> G[合并结果]
    F --> G
    G --> H[返回用户]

关键节点说明

  • 条件判断:根据用户问题决定是否调用工具。
  • 工具调用:执行天气查询、翻译等操作。
  • 模型调用:生成自然语言回答。
  • 结果合并:将工具和模型的输出整合为最终回答。

4. 测试与发布

  1. 测试:在调试窗口中模拟用户提问,验证智能体的回答逻辑。
  2. 发布:点击发布按钮,填写版本信息后完成上线。
  3. 分享:获取公共访问链接或 API 接口,嵌入到其他系统中。

5. 示例场景

以下是一个医疗问答智能体的交互示例:

用户问题 智能体回答
“感冒了怎么办?” “建议多休息、多喝水,可服用感冒药如板蓝根。如需详细指导,请咨询医生。”
“今天的天气如何?” “当前天气晴朗,气温 25°C,适合户外活动,但请注意防晒。”
“翻译‘headache’成中文” “headache 的中文翻译是‘头痛’。”

通过以上步骤,您可以快速搭建一个功能强大的智能体应用,满足多样化的业务需求。

配置模型服务

在ModelEngine中,配置模型服务是一个关键步骤,它决定了如何将模型集成到你的应用或工作流中。以下是一个详细的指南,帮助你快速完成模型服务的配置。

1. 模型服务的基本概念

模型服务是ModelEngine中用于管理和部署模型的核心功能。它支持以下操作:

  • 模型添加:将自定义或预训练模型添加到系统中。
  • 模型部署:将模型部署为可调用的服务。
  • 模型管理:查看、更新或删除已部署的模型。

2. 添加模型

在ModelEngine中,你可以通过以下步骤添加模型:

  1. 填写模型信息

    • 模型名称:为模型指定一个易于识别的名称(例如:Qwen-7B-Chat)。
    • 模型类型:选择模型的类型(如文本生成、图像识别等)。
    • 模型路径:指定模型的存储路径或URL。
  2. 配置模型参数

    • API Key:如果模型需要认证,填写对应的API Key。
    • Base URL:模型的调用地址。
  3. 保存模型: 点击“确认”按钮,模型将被保存到系统中。

flowchart TD
    A[开始] --> B[填写模型信息]
    B --> C[配置模型参数]
    C --> D[保存模型]
    D --> E[结束]

3. 部署模型

部署模型是将模型转化为可调用的服务。以下是部署步骤:

  1. 选择模型: 从模型列表中选择需要部署的模型。

  2. 配置部署参数

    • 服务名称:为服务指定一个名称。
    • 端口号:指定服务的端口号(默认为8000)。
  3. 启动服务: 点击“部署”按钮,系统将启动模型服务。

sequenceDiagram
    participant User
    participant System
    User->>System: 选择模型
    User->>System: 配置部署参数
    User->>System: 点击部署
    System->>User: 返回服务地址

4. 模型管理

在模型服务列表中,你可以执行以下操作:

  • 查看模型详情:点击模型名称查看详细信息。
  • 更新模型:修改模型的配置信息。
  • 删除模型:从系统中移除模型。

5. 示例代码

以下是一个调用模型服务的Python示例代码:

import requests

# 模型服务地址
url = "http://localhost:8000/api/v1/predict"

# 请求头
headers = {
    "Authorization": "Bearer YOUR_API_KEY",
    "Content-Type": "application/json"
}

# 请求数据
data = {
    "input": "Hello, ModelEngine!"
}

# 发送请求
response = requests.post(url, headers=headers, json=data)

# 打印响应
print(response.json())

6. 常见问题

问题 解决方案
模型服务启动失败 检查端口是否被占用或模型路径是否正确
API调用返回错误 确认API Key和Base URL是否正确
模型加载缓慢 检查模型文件大小和网络连接

通过以上步骤,你可以轻松完成模型服务的配置和管理。ModelEngine的强大功能将帮助你快速实现AI应用的开发和部署。

本文全面讲解了ModelEngine平台的核心功能,包括基础编排对话助手、工作流对话助手和智能体应用的搭建方法,以及模型服务的配置与管理。通过清晰的步骤说明和可视化流程图,帮助用户快速掌握AI助手的开发流程,实现从零到一的项目落地。

登录后查看全文
热门项目推荐
相关项目推荐