3分钟部署Meetily:Docker Compose一键启动方案
还在为Meetily部署步骤繁琐而烦恼?本文带你3分钟完成容器化部署,无需复杂配置,小白也能轻松上手。读完本文你将获得:了解Docker Compose部署优势、掌握一键启动流程、解决常见部署问题。
什么是Meetily容器化部署
Meetily是一款开源的会议纪要生成工具(An open source Live Ai based meeting minutes generator),支持本地完全运行。容器化部署通过Docker技术将应用及其依赖打包,确保环境一致性和部署便捷性。Docker Compose则允许通过单一配置文件定义多容器应用,实现一键启动。
官方文档:README.md
Docker配置源码:backend/docker-compose.yml
准备工作
系统要求
- Docker Desktop(Windows/Mac)或Docker Engine(Linux)
- 8GB+ RAM(推荐16GB以确保音频处理流畅)
- 2+ CPU核心
- 稳定网络连接(用于下载Docker镜像和模型文件)
安装Docker
Windows和Mac用户需安装Docker Desktop,Linux用户可通过包管理器安装Docker Engine和Docker Compose。安装完成后,启动Docker并验证:
docker --version
docker-compose --version
Docker Compose配置解析
Meetily的Docker Compose配置文件位于backend/docker-compose.yml,定义了三个核心服务:
服务架构
- whisper-server:语音转文本服务,支持CPU/GPU模式
- model-downloader:模型自动下载服务,确保首次启动时获取所需模型
- meetily-backend:主应用服务,提供API和Web界面
关键配置项
- 资源限制:默认配置为4GB内存限制,生产环境建议调整至8GB+
- 端口映射:Whisper服务默认8178端口,主应用默认5167端口
- 数据卷:使用命名卷
whisper_models和meeting_app_logs持久化模型和日志
一键启动步骤
获取项目代码
git clone https://gitcode.com/GitHub_Trending/me/meeting-minutes.git
cd meeting-minutes/backend
启动服务
根据操作系统选择对应命令:
Windows(PowerShell)
.\build-docker.ps1 cpu
.\run-docker.ps1 start -Interactive
macOS/Linux(Bash)
./build-docker.sh cpu
./run-docker.sh start --interactive
交互式配置
首次启动会进入交互式配置向导,引导你完成:
- 模型选择(tiny/base/small/medium/large-v3)
- 语言设置(支持40+种语言)
- 端口配置(自动检测冲突并建议替代端口)
- 数据库设置(新建或迁移现有数据)
验证部署
服务启动后,通过以下方式验证:
检查容器状态
docker-compose ps
应显示所有服务状态为"Up"。
访问Web界面
打开浏览器访问主应用:http://localhost:5167
Whisper服务API文档:http://localhost:8178/docs
测试转录功能
在Web界面中创建新会议,开始录音并检查转录结果:
常见问题解决
端口冲突
症状:启动时报错"Bind for 0.0.0.0:8178 failed"
解决:使用自定义端口启动:
# Linux/macOS
./run-docker.sh start --port 8179 --app-port 5168
# Windows
.\run-docker.ps1 start -Port 8179 -AppPort 5168
模型下载失败
症状:日志显示"Model download failed"
解决:手动下载模型并挂载到容器:
# 下载模型到本地目录
mkdir -p ./models
curl -o ./models/ggml-base.en.bin https://huggingface.co/ggerganov/whisper.cpp/resolve/main/ggml-base.en.bin
# 启动时挂载本地模型目录
./run-docker.sh start --local-models ./models
音频处理丢包
症状:转录结果缺失或不完整,日志显示"Dropped old audio chunk"
解决:增加Docker资源分配,在Docker Desktop设置中调整内存为8GB+,CPU核心4+。
总结与展望
通过Docker Compose部署Meetily,大幅简化了环境配置和依赖管理流程。关键优势包括:
- 环境一致性:避免"在我电脑上能运行"问题
- 一键操作:无需手动安装复杂依赖
- 资源隔离:与系统其他应用互不干扰
- 灵活扩展:支持CPU/GPU模式切换,适应不同硬件环境
后续Meetily计划引入Kubernetes支持,实现更灵活的集群部署。欢迎通过CONTRIBUTING.md参与项目贡献。
如果你觉得本文有帮助,请点赞、收藏并关注项目更新。下期将介绍Meetily高级配置技巧,包括自定义模型和API集成。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00


