ComfyUI Ollama零基础入门指南:轻松集成大语言模型到工作流
ComfyUI Ollama是一个开源项目,它能让你在ComfyUI中轻松使用Ollama大语言模型。通过简单的节点操作,即使没有编程经验,也能快速搭建AI对话、图像分析等智能工作流,让AI能力成为你创意设计的得力助手。
一、为什么选择ComfyUI Ollama?新手必知优势
1.1 无需复杂编程,可视化操作大模型
传统使用AI模型需要编写代码,而ComfyUI Ollama将复杂的模型调用封装成直观的节点。你只需拖拽连接节点,就能完成从提问到获取AI回答的全流程。
图1:Ollama Generate节点示例,输入问题即可获得AI回答
1.2 支持多模态交互,不止于文字
除了文本生成,还能处理图像内容。通过Ollama Vision节点,上传图片后AI就能分析描述图像细节,实现图文结合的智能创作。
二、零基础安装指南:3步完成配置
2.1 准备工作:检查必备软件
✅ Python环境:确保安装Python 3.7及以上版本(推荐3.9)
✅ ComfyUI:已安装并能正常运行(ComfyUI官方安装教程)
✅ Ollama:本地已安装Ollama并下载至少一个模型(如llama3)
2.2 快速安装:两种方法任选
方法A:通过ComfyUI管理器安装(推荐新手)
- 打开ComfyUI,进入"Manager"标签页
- 在搜索框输入"ollama",找到"ComfyUI Ollama"插件
- 点击"Install"按钮自动完成安装
方法B:手动安装(适合有经验用户)
- 打开终端,克隆项目到ComfyUI的custom_nodes目录:
git clone https://gitcode.com/gh_mirrors/co/comfyui-ollama /path/to/comfyui/custom_nodes/comfyui-ollama
- 安装依赖:
cd /path/to/comfyui/custom_nodes/comfyui-ollama
pip install -r requirements.txt
2.3 验证安装:重启ComfyUI查看节点
🔍 注意:安装完成后需重启ComfyUI。在节点面板中搜索"Ollama",出现"Ollama Generate"、"Ollama Vision"等节点即表示安装成功。
三、实战教程:3个基础工作流案例
3.1 文本生成:让AI回答问题
- 从节点面板拖入"Ollama Generate"和"Show Text"节点
- 双击"Ollama Generate",输入问题(如"What is Art?")
- 连接"response"输出到"Show Text"的"text"输入
- 点击队列按钮运行,右侧会显示AI生成的回答
3.2 图像分析:让AI描述图片内容
- 添加"Load Image"、"Ollama Vision"和"Show Text"节点
- 点击"Load Image"上传图片,连接到"Ollama Vision"的"images"输入
- 在"Ollama Vision"中输入提示(如"Describe the image in detail")
- 运行后查看AI对图像的详细描述
3.3 高级设置:调整模型参数优化输出
对于进阶用户,可以使用"Ollama Generate Advance"节点调整生成参数:
- temperature:控制回答随机性(0.0-1.0,越低越确定)
- top_p:控制采样范围(0.0-1.0,越小输出越集中)
- max_tokens:限制回答长度
四、常见问题速查(Q&A)
Q1:运行时提示"无法连接Ollama"怎么办?
A:检查Ollama服务是否启动,默认地址是否为http://127.0.0.1:11434,可在节点的"url"参数中修改。
Q2:可以使用哪些模型?
A:支持所有Ollama兼容模型,如llama3、mistral、gemma等,需先通过ollama pull 模型名下载。
Q3:生成速度很慢怎么办?
A:尝试使用更小的模型(如llama3:8b),或在节点中降低"max_tokens"参数减少输出长度。
Q4:工作流如何保存和分享?
A:点击ComfyUI顶部"Save"按钮保存为.json文件,位于项目的example_workflows目录下,可直接导入使用。
通过本指南,你已经掌握了ComfyUI Ollama的安装和基础使用方法。现在就动手尝试搭建自己的AI工作流,让大语言模型为你的创意赋能吧!
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust075- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00



