【亲测免费】 Ollama WebUI 安装和配置指南
2026-01-20 01:54:32作者:庞眉杨Will
1. 项目基础介绍和主要编程语言
项目基础介绍
Ollama WebUI 是一个用户友好的 Web 界面,专为大型语言模型(LLMs)设计。它是一个自托管的 WebUI,支持多种 LLM 运行器,包括 Ollama 和 OpenAI 兼容的 API。该项目旨在提供一个功能丰富、易于扩展的界面,使用户能够在本地环境中无缝操作 LLMs。
主要编程语言
该项目主要使用以下编程语言和框架:
- Svelte: 用于构建用户界面。
- Python: 用于后端逻辑和模型管理。
- TypeScript: 用于前端开发和类型安全。
- Shell: 用于脚本编写和自动化任务。
2. 项目使用的关键技术和框架
关键技术和框架
- Docker: 用于容器化部署,简化安装和配置过程。
- Kubernetes: 提供高级的容器编排和管理功能。
- Ollama: 作为主要的 LLM 运行器,支持本地和远程模型。
- OpenAI API: 支持与 OpenAI 兼容的 API 集成。
- Pipelines Plugin Framework: 支持自定义逻辑和 Python 库的集成。
3. 项目安装和配置的准备工作和详细安装步骤
准备工作
在开始安装之前,请确保您的系统满足以下要求:
- Docker: 已安装并配置好 Docker。
- Nvidia CUDA Toolkit(可选): 如果您计划使用 CUDA 加速,请安装此工具包。
- Git: 用于克隆项目仓库。
详细安装步骤
步骤 1: 克隆项目仓库
首先,使用 Git 克隆 Ollama WebUI 的仓库到您的本地机器:
git clone https://github.com/ollama-webui/ollama-webui.git
cd ollama-webui
步骤 2: 配置 Docker 环境
确保 Docker 已启动并运行。如果您计划使用 CUDA 加速,请确保已安装 Nvidia CUDA 容器工具包。
步骤 3: 运行 Docker 容器
使用以下命令启动 Ollama WebUI 的 Docker 容器:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果您计划连接到 Ollama 在另一个服务器上,请修改 OLLAMA_BASE_URL 环境变量:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
步骤 4: 访问 WebUI
启动容器后,您可以通过浏览器访问 http://localhost:3000 来使用 Ollama WebUI。
配置说明
- 端口映射:
-p 3000:8080将主机的 3000 端口映射到容器的 8080 端口。 - 数据卷:
-v open-webui:/app/backend/data确保数据持久化,防止数据丢失。 - 环境变量:
-e OLLAMA_BASE_URL用于指定 Ollama 服务器的 URL。
通过以上步骤,您应该能够成功安装并配置 Ollama WebUI,开始在本地环境中使用大型语言模型。
登录后查看全文
热门项目推荐
相关项目推荐
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C0135
let_datasetLET数据集 基于全尺寸人形机器人 Kuavo 4 Pro 采集,涵盖多场景、多类型操作的真实世界多任务数据。面向机器人操作、移动与交互任务,支持真实环境下的可扩展机器人学习00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python059
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7-FlashGLM-4.7-Flash 是一款 30B-A3B MoE 模型。作为 30B 级别中的佼佼者,GLM-4.7-Flash 为追求性能与效率平衡的轻量化部署提供了全新选择。Jinja00
AgentCPM-ReportAgentCPM-Report是由THUNLP、中国人民大学RUCBM和ModelBest联合开发的开源大语言模型智能体。它基于MiniCPM4.1 80亿参数基座模型构建,接收用户指令作为输入,可自主生成长篇报告。Python00
最新内容推荐
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
502
3.65 K
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
11
1
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
66
20
暂无简介
Dart
749
180
喝着茶写代码!最易用的自托管一站式代码托管平台,包含Git托管,代码审查,团队协作,软件包和CI/CD。
Go
23
0
React Native鸿蒙化仓库
JavaScript
298
347
一个高性能、可扩展、轻量、省心的仓颉应用开发框架。IoC,Rest,宏路由,Json,中间件,参数绑定与校验,文件上传下载,OAuth2,MCP......
Cangjie
116
21
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.3 K
722
无需学习 Kubernetes 的容器平台,在 Kubernetes 上构建、部署、组装和管理应用,无需 K8s 专业知识,全流程图形化管理
Go
15
1