掌握Meetily本地会议AI助手:3种高效部署方案与实用技巧全解析
Meetily是一款专注隐私保护的开源本地AI会议助手,能够在你的设备上安全地完成会议转录和分析工作。无需担心敏感信息泄露,所有数据处理均在本地进行,让你轻松拥有专业级会议记录工具。
认识Meetily:隐私优先的会议助手
Meetily作为一款开源本地AI会议助手,以"Capture. Transcribe. Summarize. All Locally"为核心理念,将会议数据处理的控制权完全交还给用户。与传统云端会议工具不同,Meetily确保100%的会议数据在本地设备处理,从根本上杜绝数据泄露风险。
核心功能亮点
Meetily提供了一套完整的会议处理解决方案,主要功能包括:
- 实时转录:基于Whisper模型的本地语音识别,支持多语言实时转换
- AI总结:自动提取会议要点、决策和行动项,支持本地大模型集成
- 多源录音:同时捕获麦克风输入和系统音频,不错过任何会议内容
- 离线工作:完全脱离互联网环境运行,保障数据安全
- 数据加密:本地数据库存储,支持手动备份和导出
快速部署:3种零门槛安装方案
Docker一键部署(推荐新手)
Docker部署是最简单快捷的方式,自动处理所有依赖关系:
# 克隆仓库
git clone https://gitcode.com/GitHub_Trending/me/meeting-minutes
cd meeting-minutes/backend
# Windows PowerShell
.\build-docker.ps1 cpu
.\run-docker.ps1 start -Interactive
# macOS/Linux终端
chmod +x build-docker.sh run-docker.sh
./build-docker.sh cpu
./run-docker.sh start --interactive
交互配置流程中,你需要选择Whisper模型(首次推荐base)、设置语言和确认端口配置。成功启动后,访问http://localhost:5167/docs应显示API文档界面。
Windows原生安装
对于Windows用户,可直接下载预编译后端:
# 下载预编译后端
Invoke-WebRequest -Uri "https://gitcode.com/GitHub_Trending/me/meeting-minutes/releases/latest/download/meetily_backend.zip" -OutFile "meetily_backend.zip"
Expand-Archive -Path "meetily_backend.zip" -DestinationPath "C:\meetily_backend"
# 解锁文件并启动
cd C:\meetily_backend
Get-ChildItem -Path . -Recurse | Unblock-File
.\start_with_output.ps1
前端安装需下载最新x64-setup.exe,右键属性勾选"解除锁定"后安装。
macOS原生安装
macOS用户可通过Homebrew快速安装:
# 安装Homebrew公式
brew tap zackriya-solutions/meetily
brew install --cask meetily
# 启动后端服务
meetily-server --language en --model medium
提示:M1/M2芯片用户推荐使用
medium模型,可通过Metal加速获得最佳性能
界面导览:5分钟上手操作
成功启动后,Meetily主界面直观易用,主要分为四大功能区域:会议录制区、实时转录区、笔记编辑区和导出分享区。
核心操作步骤
-
开始会议:
- 点击红色录制按钮
- 选择音频源(麦克风/系统音频/两者)
- 设置会议标题(可选)
-
实时操作:
- 转录文本实时显示于中央面板
- 可随时添加章节标记(Ctrl+T)
- 右侧边栏显示参会人识别结果
-
会议后处理:
- 自动生成AI总结
- 编辑补充笔记内容
- 导出为Markdown/PDF格式
功能详解:从转录到总结的完整流程
实时转录功能
Meetily的实时转录功能让你在会议进行的同时即可看到文字记录,所有转录处理均在本地完成,无需担心数据上传。
转录过程中,系统会自动标记时间戳,方便后续回顾特定时段的讨论内容。转录文本支持复制、搜索和编辑,满足不同场景需求。
音频设备设置
在开始录制前,你需要配置音频输入设备。Meetily支持同时录制麦克风和系统音频,确保不错过任何会议内容。
通过"Devices"按钮打开音频设置面板,选择合适的麦克风和系统音频源。对于线上会议,建议同时开启麦克风和系统音频录制。
AI会议总结
会议结束后,Meetily可自动生成会议总结,提取关键决策和行动项,帮助你快速掌握会议要点。
总结内容包括会议概要、关键决策和行动项表格,行动项还可分配负责人和设置截止日期。你也可以通过"Generate Note"按钮重新生成总结,或选择不同的总结模板。
个性化设置
Meetily提供丰富的个性化设置选项,让你根据需求定制应用行为。
在设置面板中,你可以:
- 配置通知偏好
- 更改数据存储位置
- 管理AI模型设置
- 调整转录参数
- 配置总结模板
技术架构:本地AI的强大支持
Meetily采用现代化的架构设计,确保所有AI处理都在本地高效运行。
核心架构包括:
- 前端:基于Electron JS和Next JS构建的用户界面
- 后端:FastAPI管理转录请求和AI引擎交互
- AI引擎:集成Whisper语音识别和Llama等大语言模型
- 本地数据库:SQLite安全存储转录文本和总结
- 音频捕获:通过虚拟音频驱动捕获多源音频流
模型优化:性能与质量的平衡
模型选择指南
Meetily提供多种模型选择,平衡转录速度和准确率:
| 模型 | 大小 | 转录速度 | 准确率 | 推荐设备 |
|---|---|---|---|---|
| tiny | 39MB | 实时x3 | 85% | 低配笔记本 |
| base | 142MB | 实时x1.5 | 92% | 普通电脑 |
| small | 466MB | 实时x0.8 | 95% | 高性能本 |
| medium | 1.5GB | 实时x0.5 | 98% | 台式机/MacBook Pro |
切换模型命令:
# Docker环境
./run-docker.sh start --model medium --language zh
# 原生环境
meetily-server --model small --language zh
本地LLM集成
通过Ollama使用本地大模型生成会议总结:
# 安装Ollama
curl https://ollama.ai/install.sh | sh
# 下载适合总结的模型
ollama pull llama3.2:3b
# 配置Meetily使用本地模型
meetily-server --llm-provider ollama --llm-model llama3.2:3b
常见问题与解决方案
启动问题
| 错误现象 | 原因分析 | 解决方案 |
|---|---|---|
| 端口占用 | 8178/5167端口被占用 | lsof -i :8178找到进程并终止 |
| 模型下载失败 | 网络问题 | 手动下载模型放入models/目录 |
| Docker权限 | 权限不足 | sudo chown $USER /var/run/docker.sock |
转录问题
Q: 转录出现卡顿怎么办?
A: 1. 降低模型等级 2. 关闭其他占用CPU的程序 3. 检查散热(CPU过热会降频)
Q: 中文转录准确率低?
A: 使用
medium以上模型,并在启动时指定--language zh参数
总结:打造你的本地会议助手
Meetily通过本地AI技术,解决了传统会议工具的隐私痛点与成本问题。5分钟部署流程让任何人都能快速拥有专业级会议助手,而开源特性确保了完全的数据主权。无论是个人用户还是企业团队,都能通过Meetily提升会议效率,同时保障数据安全。
立即尝试Meetily,体验本地AI会议助手带来的高效与安全!
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust060
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00





