首页
/ WiseFlow项目中本地Ollama API的配置指南

WiseFlow项目中本地Ollama API的配置指南

2025-05-30 18:09:56作者:邵娇湘

前言

在部署WiseFlow项目时,许多开发者选择使用本地运行的Ollama作为大语言模型服务。本文将详细介绍如何正确配置.env文件以连接本地Ollama API,解决常见的503错误问题,并提供优化建议。

Ollama API基础配置

核心参数设置

WiseFlow项目通过.env文件中的几个关键参数与Ollama进行交互:

  1. LLM_API_BASE:指定Ollama服务的API端点地址
  2. PRIMARY_MODEL:设置主模型标识
  3. SECONDARY_MODEL:可选设置辅助模型标识
  4. VL_MODEL:视觉语言模型标识

常见错误分析

从日志中可以看到,开发者遇到的主要是503服务不可用错误。这种错误通常由以下几种原因导致:

  • API端点格式不正确
  • 模型标识不规范
  • 服务未正确启动
  • 网络连接问题

正确配置方法

API端点格式

经过验证,正确的Ollama API端点格式应为:

LLM_API_BASE="http://127.0.0.1:11434/v1/"

注意要点:

  1. 必须包含/v1路径
  2. 建议使用127.0.0.1而非localhost
  3. 结尾斜杠不是必须的,但建议保留

模型标识规范

Ollama模型标识需要严格遵循模型名:版本的格式:

PRIMARY_MODEL="qwen2.5:3b"
SECONDARY_MODEL="deepseek-r1:7b"
VL_MODEL="qwen2.5:3b"

配置验证步骤

  1. 检查Ollama服务状态:确保Ollama服务已启动并运行在指定端口
  2. 测试API连通性:使用curl测试API端点是否可达
  3. 验证模型可用性:确认指定的模型已通过Ollama pull命令下载
  4. 检查防火墙设置:确保没有防火墙阻止本地服务通信

高级配置建议

并发处理优化

对于性能较强的机器,可以增加并发处理数:

LLM_CONCURRENT_NUMBER=8

日志级别控制

根据调试需求调整日志级别:

VERBOSE="true"  # 详细日志模式

常见问题解决方案

  1. 503服务不可用错误

    • 检查Ollama服务是否正常运行
    • 确认API端点格式正确
    • 验证模型标识准确无误
  2. 模型幻觉问题

    • 尝试更换更稳定的模型
    • 调整prompt工程
    • 增加结果验证逻辑
  3. 认证失败问题

    • 检查PB_API_AUTH格式是否正确
    • 确认PocketBase服务正常运行

总结

正确配置WiseFlow与本地Ollama的连接需要注意API端点格式、模型标识规范和服务可用性验证。通过本文提供的配置方法和问题解决方案,开发者可以快速搭建稳定的本地大模型服务环境,为WiseFlow项目提供可靠的AI能力支持。

登录后查看全文
热门项目推荐
相关项目推荐