3步轻松部署!ComfyUI容器化实战:从零开始的AI绘图工具Docker部署教程
2026-04-20 12:20:11作者:咎岭娴Homer
ComfyUI-Docker是一个专注于AI绘图工具ComfyUI的容器化部署方案,通过Docker技术将ComfyUI及其依赖项打包成可移植容器,让新手也能轻松实现稳定扩散(Stable Diffusion)节点式GUI的快速部署。本文将详细介绍如何通过简单三步完成ComfyUI的Docker化部署,让你高效开启AI创作之旅。
一、环境准备清单:部署前的必要检查
在开始部署ComfyUI-Docker前,请确保你的系统满足以下基础要求:
- Docker环境:已安装Docker Engine(推荐版本20.10+),可通过
docker --version命令验证安装状态 - 硬件支持:若需启用GPU加速(推荐),需确保已安装匹配的NVIDIA驱动和CUDA工具包
- 网络环境:稳定的互联网连接(用于拉取Docker镜像和依赖文件)
二、容器化部署实战:3步完成ComfyUI启动
1. 获取项目代码
打开终端,执行以下命令克隆项目仓库到本地:
git clone https://gitcode.com/gh_mirrors/co/ComfyUI-Docker
cd ComfyUI-Docker
2. 选择合适的镜像版本
项目提供多种镜像标签适配不同环境,主要分为以下几类:
- CUDA系列:如
cu124-slim(轻量版)、cu128-megapak(完整功能版) - CPU版:位于
cpu/目录,适合无GPU环境 - ROCM版:如
rocm7/目录下镜像,支持AMD显卡加速
3. 启动容器服务
以主流的cu124-slim镜像为例,执行以下命令启动容器:
docker run -it --rm --name comfyui \
--gpus all \
-p 8188:8188 \
-v "$(pwd)"/storage:/root/storage \
-e CLI_ARGS="" \
yanwk/comfyui-boot:cu124-slim
关键参数说明:
--gpus all:启用所有GPU资源(仅NVIDIA显卡需要)-p 8188:8188:映射Web界面端口-v:挂载本地存储目录,保存生成的图片和模型文件
三、访问与使用:开启AI绘图之旅
容器启动成功后,打开浏览器访问 http://localhost:8188 即可进入ComfyUI的节点式编辑界面。系统默认提供基础工作流模板,你可以:
- 通过左侧节点面板添加组件
- 连接节点构建图像生成流程
- 点击队列按钮开始渲染
项目配置文件位于各版本目录下的docker-compose.yml,可根据需要调整端口映射、环境变量等参数。启动脚本位于对应版本的runner-scripts/entrypoint.sh,高级用户可通过修改脚本实现自定义启动流程。
四、常见问题解决
- 镜像拉取缓慢:可尝试更换Docker镜像源或使用项目中的国内优化版本(如
cu124-cn/目录下镜像) - GPU不识别:检查
nvidia-docker是否正确安装,或使用--gpus device=0指定具体GPU - 存储空间不足:通过
-v参数挂载更大容量的本地目录
通过Docker容器化部署ComfyUI,不仅简化了环境配置过程,还确保了跨平台运行的一致性。无论是AI绘图爱好者还是开发者,都能通过这个项目快速搭建专业的稳定扩散工作环境,开启你的创意之旅。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
项目优选
收起
deepin linux kernel
C
28
16
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
562
98
暂无描述
Dockerfile
706
4.51 K
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
412
338
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
958
955
Ascend Extension for PyTorch
Python
569
694
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.6 K
940
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.42 K
116
AI 将任意文档转换为精美可编辑的 PPTX 演示文稿 — 无需设计基础 | 包含 15 个案例、229 页内容
Python
78
5
暂无简介
Dart
951
235