3步打造本地智能会议助手:Meetily全流程部署与使用指南
为什么选择本地会议助手?隐私与效率的双重革命
传统会议记录方式正面临三大核心痛点:云端服务的数据泄露风险、第三方API的延迟问题、以及高昂的订阅成本。Meetily作为一款开源本地AI会议助手,通过将所有处理流程限制在用户设备内部,彻底解决了这些问题。
核心优势对比
| 评估维度 | 传统云端方案 | Meetily本地方案 | 关键差异 |
|---|---|---|---|
| 数据隐私 | 数据存储于第三方服务器 | 100%本地存储,无外部传输 | 从根本上消除数据泄露风险 |
| 网络依赖 | 必须联网才能使用 | 完全离线运行 | 适合网络不稳定或保密环境 |
| 处理延迟 | 依赖API响应速度 | 本地GPU/CPU实时处理 | 平均响应速度提升3-5倍 |
| 长期成本 | 按使用量付费或订阅制 | 一次性部署,终身免费 | 年节省订阅费用约1200-3600元 |
第一步:环境准备与依赖安装
在开始部署前,请确保您的设备满足以下条件:
系统要求分级指南
-
入门配置(基本可用):
- 处理器:双核CPU
- 内存:8GB RAM
- 存储空间:至少4GB可用空间
- 支持系统:Windows 10/11、macOS 10.15+、Linux (Ubuntu 20.04+)
-
推荐配置(流畅体验):
- 处理器:四核或更高CPU
- 内存:16GB RAM
- 存储空间:10GB SSD
- 显卡:支持CUDA的NVIDIA显卡(可选,用于加速AI处理)
必要依赖安装指南
根据您的操作系统,执行以下命令安装必要依赖:
Windows系统(使用PowerShell):
# 安装Git、Python和FFmpeg
winget install Git.Python.3.9 Gyan.FFmpeg
# 验证安装
git --version
python --version
ffmpeg -version
macOS系统(使用终端):
# 安装Xcode命令行工具和Homebrew
xcode-select --install
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
# 安装必要依赖
brew install git python@3.9 ffmpeg
Linux系统(以Ubuntu为例):
# 更新系统并安装依赖
sudo apt update && sudo apt install -y git python3.9 python3-pip ffmpeg
✅ 验证点:所有命令执行完成后无错误提示,各工具版本信息正常显示。
第二步:部署方案选择与实施
Meetily提供三种部署方案,您可以根据技术背景和设备条件选择最适合的方式:
方案A:Docker一键部署(推荐新手)
Docker方式可以自动处理所有依赖关系,无需手动配置环境:
- 准备条件:已安装Docker Desktop并启动
- 执行命令:
# 克隆项目仓库
git clone https://gitcode.com/GitHub_Trending/me/meeting-minutes
cd meeting-minutes/backend
# 构建并启动Docker容器(Linux/macOS)
chmod +x build-docker.sh run-docker.sh
./build-docker.sh cpu
./run-docker.sh start --interactive
# Windows系统请使用PowerShell
.\build-docker.ps1 cpu
.\run-docker.ps1 start -Interactive
- 交互配置流程:
- 首次启动时选择Whisper模型(推荐新手选择"base")
- 设置主要使用语言(默认英语,可输入"zh"选择中文)
- 确认服务端口(默认8178和5167,无需修改)
- 等待模型自动下载(约200-500MB,取决于选择的模型)
✅ 验证方法:打开浏览器访问http://localhost:5167/docs,应显示API文档界面。
方案B:Windows原生安装
适合需要更好性能或无法使用Docker的Windows用户:
- 准备条件:已安装7-Zip或其他解压工具
- 执行命令:
# 下载预编译后端
Invoke-WebRequest -Uri "https://gitcode.com/GitHub_Trending/me/meeting-minutes/releases/latest/download/meetily_backend.zip" -OutFile "meetily_backend.zip"
# 解压并启动
Expand-Archive -Path "meetily_backend.zip" -DestinationPath "C:\meetily_backend"
cd C:\meetily_backend
Get-ChildItem -Path . -Recurse | Unblock-File
.\start_with_output.ps1
- 前端安装:
- 下载最新版
x64-setup.exe安装包 - 右键安装包→属性→勾选"解除锁定"
- 执行安装程序,接受用户协议,完成安装
- 下载最新版
✅ 验证方法:启动应用后,系统托盘出现Meetily图标,主窗口正常打开。
方案C:macOS原生安装
专为macOS优化,支持M1/M2芯片的Metal加速:
- 准备条件:已安装Homebrew
- 执行命令:
# 添加Meetily的Homebrew仓库
brew tap zackriya-solutions/meetily
# 安装Meetily
brew install --cask meetily
# 启动后端服务
meetily-server --language en --model medium
- 配置优化(M1/M2用户):
# 启用Metal加速
defaults write com.zackriya.meetily enable-metal -bool true
✅ 验证方法:在应用程序文件夹中找到Meetily并启动,无错误提示。
第三步:核心功能使用指南
成功部署后,您可以开始使用Meetily的各项核心功能。以下是主要工作流程:
会议录制与转录
Meetily能够同时捕获麦克风和系统音频,实现完整的会议记录:
-
音频设置:
- 点击主界面左侧"设备"图标
- 在弹出的音频设置窗口中选择合适的输入设备
- 对于系统音频,推荐选择"Core Audio"(macOS)或"WASAPI"(Windows)后端
-
开始录制:
- 点击主界面中央的红色录制按钮
- 输入会议标题(可选)
- 选择录制模式:麦克风/系统音频/两者同时
-
实时转录查看:
- 录制开始后,转录文本会实时显示在中央面板
- 转录内容包含时间戳,便于后期定位
- 可随时暂停或继续录制
AI会议总结生成
Meetily可以基于转录内容自动生成结构化会议总结:
-
生成总结:
- 录制结束后,点击顶部"Generate Note"按钮
- 选择总结模板(标准会议/每日站会/客户访谈等)
- 等待AI处理完成(根据会议长度,通常需要1-3分钟)
-
总结内容编辑:
- 总结结果分为"概要"、"关键决策"和"行动项"三个部分
- 可直接在编辑器中修改内容
- 使用右侧工具栏添加标题、列表、引用等格式
-
导出与分享:
- 点击顶部"Save"按钮保存到本地数据库
- 使用"Copy"按钮复制总结内容
- 支持导出为Markdown、PDF或TXT格式
模型选择与性能优化
Meetily使用Whisper模型进行语音识别,不同模型在速度和准确率上有显著差异:
模型选择决策指南
| 模型名称 | 大小 | 推荐配置 | 适用场景 | 转录速度 | 准确率 |
|---|---|---|---|---|---|
| tiny | 39MB | 低配电脑 | 快速转录、实时字幕 | 3x实时 | 85% |
| base | 142MB | 普通电脑 | 日常会议记录 | 1.5x实时 | 92% |
| small | 466MB | 高性能本 | 重要会议、需要较高准确率 | 0.8x实时 | 95% |
| medium | 1.5GB | 台式机/MacBook Pro | 专业场景、多语言转录 | 0.5x实时 | 98% |
切换模型命令:
# Docker环境
./run-docker.sh start --model medium --language zh
# 原生环境
meetily-server --model small --language zh
性能优化技巧
- 减少后台程序:转录时关闭其他占用CPU/GPU的应用
- 调整采样率:在设置中降低音频采样率可提高速度(默认16kHz)
- 启用硬件加速:确保已安装最新显卡驱动,开启CUDA/Metal加速
- 模型缓存:首次使用模型后会缓存到本地,后续启动速度更快
常见问题与故障排除
启动问题
| 现象 | 排查流程 | 解决方案 |
|---|---|---|
| 端口被占用 | 1. 检查8178和5167端口占用情况 2. 确认是否有其他实例在运行 |
Linux/macOS: lsof -i :8178找到进程并终止Windows: `netstat -ano |
| 模型下载失败 | 1. 检查网络连接 2. 查看下载目录权限 |
手动下载模型文件放入models/目录确保目录有写入权限 |
| Docker启动错误 | 1. 检查Docker服务状态 2. 查看日志文件 |
sudo systemctl restart docker重启服务删除 docker-compose.yml中冲突的端口映射 |
转录问题
Q: 转录出现卡顿或延迟怎么办?
A: 1. 降低模型等级(如从medium切换到base)
2. 关闭其他占用系统资源的程序
3. 检查散热情况,CPU过热会导致降频
4. 尝试重启应用
Q: 中文转录准确率不高如何解决?
A: 1. 使用medium或larger模型
2. 启动时指定--language zh参数
3. 确保音频清晰,减少背景噪音
4. 在安静环境下使用麦克风
Meetily技术架构解析
Meetily采用模块化架构设计,确保各组件松耦合且可扩展:
核心组件说明:
- 前端层:基于Electron和Next.js构建,提供跨平台用户界面
- 后端服务:使用FastAPI实现,处理转录请求和AI交互
- AI引擎:集成Whisper语音识别和Llama/LLaMA等大语言模型
- 本地数据库:SQLite存储转录文本、总结和元数据
- 音频处理:支持多源音频捕获和实时处理
这种架构设计确保了所有数据处理都在本地完成,同时保持了良好的可扩展性,方便未来添加新功能。
总结与后续学习
通过本文介绍的三个步骤,您已经成功部署并开始使用Meetily本地会议助手。这款工具不仅解决了传统会议记录的隐私和效率问题,还提供了AI辅助总结等高级功能,帮助您更专注于会议内容而非记录工作。
下一步建议:
- 尝试不同的Whisper模型,找到速度与准确率的最佳平衡点
- 探索总结模板功能,自定义适合您团队的会议记录格式
- 了解Ollama集成方法,使用本地大模型提升总结质量
- 参与项目社区,提交bug报告或功能建议
Meetily作为开源项目,持续接受社区贡献和改进,期待您的参与和反馈!
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust060
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00




