ModelEngine快速入门指南
文章概要:本文详细介绍了如何在ModelEngine平台上搭建基础编排对话助手、工作流对话助手以及智能体应用,并配置模型服务。从创建应用到测试发布,逐步指导用户完成各类AI助手的开发与部署。
搭建基础编排对话助手
在 ModelEngine 中,搭建一个基础编排对话助手是一个快速且直观的过程。无论你是开发者还是非技术用户,都可以通过简单的配置和编排,实现一个功能丰富的对话式 AI 助手。以下是一个详细的步骤指南,帮助你快速上手。
1. 创建基础编排对话助手
首先,登录 ModelEngine 平台并进入应用开发页面。点击创建空白应用,选择对话助手作为应用类型,并选择基础编排作为编排手法。填写应用的基本信息,包括名称、分类和简介,然后点击创建。
flowchart TD
A[登录 ModelEngine] --> B[进入应用开发页面]
B --> C[创建空白应用]
C --> D[选择对话助手]
D --> E[选择基础编排]
E --> F[填写应用信息]
F --> G[创建完成]
2. 配置基础聊天设置
在创建完成后,进入应用编辑页面,配置以下内容:
大模型调用
- 模型选择:例如
Qwen/Qwen2.5-72B-Chat。 - 温度参数:控制生成结果的随机性,默认值为
0.3。 - 提示词:用于引导模型的输入内容。
知识库
- 添加知识库,支持基于向量或关键词的内容检索。
开场白
- 设置欢迎语,例如:“你好,我是一个对话助手,请输入内容开始对话。”
多轮对话
- 启用对话记忆功能,让模型记住上下文。
猜你想问
- 预置最多 3 条推荐问题,展示给用户。
创意灵感
- 配置常用问题并按分类管理。
stateDiagram
[*] --> 大模型调用
大模型调用 --> 知识库
知识库 --> 开场白
开场白 --> 多轮对话
多轮对话 --> 猜你想问
猜你想问 --> 创意灵感
3. 测试与发布
完成配置后,点击测试按钮,验证对话助手的交互效果。测试通过后,点击发布按钮,填写发布信息并提交。发布成功后,应用将出现在应用市场中,用户可以直接访问。
sequenceDiagram
participant 用户
participant 平台
用户->>平台: 点击测试
平台->>用户: 返回测试结果
用户->>平台: 点击发布
平台->>用户: 发布成功
4. 应用详情与分享
发布后,系统会自动生成公开访问链接和北向接口链接。你可以在应用概览页面查看这些链接,并将其分享到外部平台或嵌入其他业务系统中。
pie
title 应用分享方式
"公开访问链接" : 45
"北向接口链接" : 35
"嵌入业务系统" : 20
通过以上步骤,你已经成功搭建了一个基础编排对话助手。接下来,你可以进一步探索高级编排功能,为助手添加更多复杂逻辑和交互能力。
搭建工作流对话助手
在 ModelEngine 中,工作流对话助手是一种强大的工具,能够通过逻辑编排实现复杂的对话交互。以下是一个详细的指南,帮助你快速搭建一个工作流对话助手。
准备工作
在开始之前,确保你已经完成以下准备工作:
- 登录 ModelEngine 平台。
- 创建一个空白应用,并选择“对话助手”作为应用类型。
- 选择“工作流编排”作为编排手法。
工作流编排基础
工作流编排的核心是通过节点组合实现逻辑控制。以下是支持的节点类型及其功能:
| 节点类型 | 功能描述 |
|---|---|
| 大模型 | 调用预设的大语言模型,实现文本生成、问答等能力。 |
| 代码 | 编写并运行 Python 代码,实现自定义逻辑或数据处理。 |
| 条件 | 设置流程判断条件,支持基于变量值进行分支逻辑跳转。 |
| 智能编排表单 | 收集用户输入的结构化信息,用于后续节点处理。 |
| 结束 | 表示流程终止点,执行到该节点后结束本轮工作流。 |
| 知识检索 | 对接知识库,实现基于向量或关键词的知识内容检索。 |
| HTTP 调用 | 调用第三方或自有系统的 HTTP 接口,扩展外部能力。 |
示例:构建一个多轮对话工作流
以下是一个简单的多轮对话工作流示例,展示了如何通过节点组合实现逻辑控制。
flowchart TD
A[开始] --> B[智能编排表单: 收集用户输入]
B --> C{条件判断: 用户输入是否完整?}
C -->|是| D[大模型: 生成回复]
C -->|否| E[智能编排表单: 提示补充信息]
E --> B
D --> F[结束]
步骤说明:
- 智能编排表单:收集用户的初始输入。
- 条件判断:检查用户输入是否完整。如果不完整,返回表单提示补充信息。
- 大模型节点:如果输入完整,调用大模型生成回复。
- 结束节点:完成对话流程。
调试与优化
完成工作流编排后,使用调试工具测试对话逻辑:
- 在调试界面输入测试内容,观察工作流的执行路径。
- 根据测试结果优化节点配置,确保逻辑正确。
sequenceDiagram
participant 用户
participant 工作流
用户->>工作流: 输入问题
工作流->>工作流: 检查输入完整性
工作流->>用户: 提示补充信息(如不完整)
用户->>工作流: 补充输入
工作流->>工作流: 调用大模型生成回复
工作流->>用户: 返回回复
发布与分享
完成调试后,点击“发布”按钮将对话助手发布到应用市场。发布后,你可以:
- 获取公开访问链接,分享给其他用户。
- 将助手嵌入到其他业务系统中。
pie
title 发布后功能分布
"公开访问" : 45
"嵌入业务系统" : 35
"API 调用" : 20
通过以上步骤,你可以快速搭建一个功能强大的工作流对话助手,满足复杂的业务需求。
搭建智能体应用
智能体是 ModelEngine 中一种高级 AI 应用,能够通过集成多种工具和知识库,实现复杂的任务处理和交互能力。以下将详细介绍如何从零开始搭建一个智能体应用,并通过示例展示其核心功能。
1. 创建智能体项目
- 登录 ModelEngine 平台,进入应用使能模块。
- 点击创建空白应用,选择智能体类型。
- 填写智能体的基本信息:
- 名称:例如“医疗问答助手”。
- 简介:描述智能体的用途,如“基于医疗知识库的问答助手”。
- 开场白:设置用户首次打开应用时的欢迎语,例如“您好,我是医疗问答助手,请问有什么可以帮您?”
2. 配置智能体能力
智能体的核心能力包括模型调用、工具集成和知识库接入。以下是详细配置步骤:
模型调用
- 选择预设的大语言模型(如
Qwen/Qwen2.5-72B-Chat)。 - 设置温度参数(默认
0.3),控制生成结果的随机性。 - 输入提示词,例如“你是一个专业的医疗问答助手,请根据用户问题提供准确的回答。”
工具集成
- 点击工具选项卡,添加以下工具:
- 天气查询:用于回答与天气相关的健康建议。
- 翻译工具:支持多语言问答。
- 计算器:用于处理医疗数据计算。
知识库接入
- 点击知识库选项卡,上传医疗领域的文档(如 PDF、TXT 格式)。
- 系统会自动将文档向量化,并支持基于关键词或语义的检索。
3. 编排智能体逻辑
通过工作流编排工具,可以定义智能体的交互逻辑。以下是一个示例流程:
flowchart TD
A[用户提问] --> B{是否需要工具?}
B -->|是| C[调用工具]
B -->|否| D[调用大模型]
C --> E[返回工具结果]
D --> F[返回模型回答]
E --> G[合并结果]
F --> G
G --> H[返回用户]
关键节点说明
- 条件判断:根据用户问题决定是否调用工具。
- 工具调用:执行天气查询、翻译等操作。
- 模型调用:生成自然语言回答。
- 结果合并:将工具和模型的输出整合为最终回答。
4. 测试与发布
- 测试:在调试窗口中模拟用户提问,验证智能体的回答逻辑。
- 发布:点击发布按钮,填写版本信息后完成上线。
- 分享:获取公共访问链接或 API 接口,嵌入到其他系统中。
5. 示例场景
以下是一个医疗问答智能体的交互示例:
| 用户问题 | 智能体回答 |
|---|---|
| “感冒了怎么办?” | “建议多休息、多喝水,可服用感冒药如板蓝根。如需详细指导,请咨询医生。” |
| “今天的天气如何?” | “当前天气晴朗,气温 25°C,适合户外活动,但请注意防晒。” |
| “翻译‘headache’成中文” | “headache 的中文翻译是‘头痛’。” |
通过以上步骤,您可以快速搭建一个功能强大的智能体应用,满足多样化的业务需求。
配置模型服务
在ModelEngine中,配置模型服务是一个关键步骤,它决定了如何将模型集成到你的应用或工作流中。以下是一个详细的指南,帮助你快速完成模型服务的配置。
1. 模型服务的基本概念
模型服务是ModelEngine中用于管理和部署模型的核心功能。它支持以下操作:
- 模型添加:将自定义或预训练模型添加到系统中。
- 模型部署:将模型部署为可调用的服务。
- 模型管理:查看、更新或删除已部署的模型。
2. 添加模型
在ModelEngine中,你可以通过以下步骤添加模型:
-
填写模型信息:
- 模型名称:为模型指定一个易于识别的名称(例如:
Qwen-7B-Chat)。 - 模型类型:选择模型的类型(如文本生成、图像识别等)。
- 模型路径:指定模型的存储路径或URL。
- 模型名称:为模型指定一个易于识别的名称(例如:
-
配置模型参数:
- API Key:如果模型需要认证,填写对应的API Key。
- Base URL:模型的调用地址。
-
保存模型: 点击“确认”按钮,模型将被保存到系统中。
flowchart TD
A[开始] --> B[填写模型信息]
B --> C[配置模型参数]
C --> D[保存模型]
D --> E[结束]
3. 部署模型
部署模型是将模型转化为可调用的服务。以下是部署步骤:
-
选择模型: 从模型列表中选择需要部署的模型。
-
配置部署参数:
- 服务名称:为服务指定一个名称。
- 端口号:指定服务的端口号(默认为8000)。
-
启动服务: 点击“部署”按钮,系统将启动模型服务。
sequenceDiagram
participant User
participant System
User->>System: 选择模型
User->>System: 配置部署参数
User->>System: 点击部署
System->>User: 返回服务地址
4. 模型管理
在模型服务列表中,你可以执行以下操作:
- 查看模型详情:点击模型名称查看详细信息。
- 更新模型:修改模型的配置信息。
- 删除模型:从系统中移除模型。
5. 示例代码
以下是一个调用模型服务的Python示例代码:
import requests
# 模型服务地址
url = "http://localhost:8000/api/v1/predict"
# 请求头
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
# 请求数据
data = {
"input": "Hello, ModelEngine!"
}
# 发送请求
response = requests.post(url, headers=headers, json=data)
# 打印响应
print(response.json())
6. 常见问题
| 问题 | 解决方案 |
|---|---|
| 模型服务启动失败 | 检查端口是否被占用或模型路径是否正确 |
| API调用返回错误 | 确认API Key和Base URL是否正确 |
| 模型加载缓慢 | 检查模型文件大小和网络连接 |
通过以上步骤,你可以轻松完成模型服务的配置和管理。ModelEngine的强大功能将帮助你快速实现AI应用的开发和部署。
本文全面讲解了ModelEngine平台的核心功能,包括基础编排对话助手、工作流对话助手和智能体应用的搭建方法,以及模型服务的配置与管理。通过清晰的步骤说明和可视化流程图,帮助用户快速掌握AI助手的开发流程,实现从零到一的项目落地。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00