Meetily:三步打造你的本地AI会议助手,数据安全尽在掌握
你是否经历过这些会议困境?重要讨论遗漏记录、敏感信息上传云端的安全隐患、跨国会议转录延迟......Meetily作为一款开源本地AI会议助手,彻底改变了这一现状。它将所有处理流程都锁定在你的设备上,就像给会议记录装上了"隐形保险箱",既保留AI的智能便捷,又确保数据100%私有。
为什么选择本地部署?企业隐私的隐形盾牌
当传统会议工具将你的对话数据发送到云端处理时,就像在公共场所讨论商业机密。Meetily采用"数据不离开设备"的设计理念,构建了从音频捕获到AI总结的完整本地闭环。
核心能力对比:本地智能 vs 云端服务
| 功能特性 | Meetily本地方案 | 传统云端服务 |
|---|---|---|
| 数据控制权 | ✅ 完全本地存储 | ⚠️ 第三方服务器处理 |
| 网络依赖 | ✅ 完全离线工作 | ⚠️ 需稳定网络连接 |
| 响应速度 | ⚡ 毫秒级延迟 | 🐢 依赖网络传输 |
| 长期成本 | 💰 一次性部署 | 💸 按使用量付费 |
| 隐私保护 | 🔒 零数据共享 | 📤 数据必然上传 |
部署决策指南:找到最适合你的方案
选择部署方案就像挑选合适的交通工具——需要根据你的技术背景和设备条件做出选择。以下决策树将帮你快速找到最佳路径:
flowchart TD
A[选择部署方案] --> B{技术熟悉度}
B -->|新手/追求简单| C[Docker一键部署]
B -->|熟悉命令行| D[原生系统安装]
C --> E[Windows/macOS/Linux通用]
D --> F{操作系统}
F -->|Windows| G[PowerShell脚本安装]
F -->|macOS| H[Homebrew公式安装]
F -->|Linux| I[源码编译]
方案一:Docker部署(推荐新手)
Docker就像一个标准化的集装箱,将所有依赖打包在一起,确保在任何系统上都能一致运行。
# 克隆项目仓库
git clone https://gitcode.com/GitHub_Trending/me/meeting-minutes
cd meeting-minutes/backend
# Linux/macOS执行
chmod +x build-docker.sh run-docker.sh
./build-docker.sh cpu
./run-docker.sh start --interactive
# Windows PowerShell执行
.\build-docker.ps1 cpu
.\run-docker.ps1 start -Interactive
✅ 验证部署成功:打开浏览器访问 http://localhost:5167/docs,能看到API文档界面即表示部署成功。
方案二:Windows原生安装
适合希望充分利用系统资源的Windows用户:
# 下载预编译后端
Invoke-WebRequest -Uri "https://gitcode.com/GitHub_Trending/me/meeting-minutes/releases/latest/download/meetily_backend.zip" -OutFile "meetily_backend.zip"
Expand-Archive -Path "meetily_backend.zip" -DestinationPath "C:\meetily_backend"
# 解锁文件并启动
cd C:\meetily_backend
Get-ChildItem -Path . -Recurse | Unblock-File
.\start_with_output.ps1
方案三:macOS原生安装
macOS用户可通过Homebrew获得最佳体验:
# 安装Homebrew公式
brew tap zackriya-solutions/meetily
brew install --cask meetily
# 启动后端服务
meetily-server --language en --model medium
⚠️ M1/M2芯片用户特别提示:推荐使用medium模型,可通过Metal加速获得最佳性能。
架构解析:Meetily如何实现本地智能
Meetily的架构就像一个精密协作的小团队,每个组件各司其职又紧密配合:
核心组件解析
- 前端界面:基于Electron和Next.js构建,提供直观的用户交互
- 音频捕获层:通过系统音频驱动同时录制麦克风和系统声音
- 后端服务:FastAPI构建的核心控制器,协调所有组件
- AI引擎:集成Whisper语音识别和Llama等大语言模型
- 本地存储:SQLite数据库安全存储转录文本和会议总结
这种架构设计确保了从音频输入到文本输出的全流程本地化,就像一个微型数据中心在你的电脑里工作。
快速上手:3分钟完成首次会议记录
配置音频设备
首次启动后,需要配置音频源。Meetily支持同时录制麦克风和系统音频,确保不会错过任何重要对话:
操作步骤:
- 点击顶部"Devices"按钮打开设备设置
- 选择麦克风和系统音频输入源
- 对于macOS用户,推荐选择"Core Audio"以获得低延迟体验
- 点击"Test Mic"验证麦克风是否工作正常
开始你的第一次录制
只需三步即可开始会议记录:
- 点击主界面中央的红色录制按钮
- 输入会议标题(可选)
- 选择录音模式(麦克风/系统音频/两者)
录制过程中,你可以看到实时转录的文本出现在界面中央,就像有一位实时速记员在记录会议内容。
生成AI总结
会议结束后,Meetily可以自动生成结构化总结:
操作方法:
- 点击"Generate Note"按钮
- 等待AI处理(根据会议长度,通常需要1-3分钟)
- 查看生成的摘要、关键决策和行动项
- 使用编辑器进行手动调整和补充
模型优化:平衡速度与准确性
选择合适的模型就像调整相机焦距——需要根据场景找到最佳设置。Meetily提供多种模型选择,满足不同设备条件和使用需求:
模型性能对比
| 模型 | 大小 | 速度 | 准确率 | 推荐设备 |
|---|---|---|---|---|
| tiny | 39MB | ⚡⚡⚡ 最快 | 85% | 老旧笔记本 |
| base | 142MB | ⚡⚡ 较快 | 92% | 普通电脑 |
| small | 466MB | ⚡ 中等 | 95% | 高性能笔记本 |
| medium | 1.5GB | 🐢 较慢 | 98% | 台式机/MacBook Pro |
切换模型命令
# Docker环境
./run-docker.sh start --model medium --language zh
# 原生环境
meetily-server --model small --language zh
⚠️ 模型选择建议:如果你的电脑内存小于16GB,建议使用base模型;若需要处理专业术语较多的技术会议,推荐使用medium模型以获得更高准确率。
高级技巧:释放Meetily全部潜力
本地LLM集成
通过Ollama可以在本地运行大语言模型,实现完全离线的AI总结:
# 安装Ollama
curl https://ollama.ai/install.sh | sh
# 下载适合总结任务的模型
ollama pull llama3.2:3b
# 配置Meetily使用本地模型
meetily-server --llm-provider ollama --llm-model llama3.2:3b
自定义模型端点
对于高级用户,Meetily支持连接自定义AI服务:
应用场景:
- 连接企业内部AI服务
- 使用特定领域优化模型
- 实现更高级的总结功能
常见问题解决方案
启动故障排除
| 问题 | 根本原因 | 解决方案 |
|---|---|---|
| 端口占用 | 8178/5167端口被其他程序占用 | 运行lsof -i :8178找到占用进程并终止 |
| 模型下载失败 | 网络连接问题或模型服务器不可用 | 手动下载模型文件放入models/目录 |
| Docker权限错误 | 当前用户无Docker执行权限 | sudo chown $USER /var/run/docker.sock |
转录质量优化
Q: 中文转录准确率低怎么办?
A: 根本原因是默认模型可能未针对中文优化。解决方案:
- 启动时指定
--language zh参数- 升级至medium模型
- 在安静环境下使用,减少背景噪音
Q: 转录出现卡顿如何解决?
A: 这通常是CPU资源不足导致。解决步骤:
- 降低模型等级(如从medium切换到base)
- 关闭其他占用CPU的程序
- 检查电脑散热,避免CPU过热降频
进阶路径:探索更多可能
掌握基础使用后,你可以通过以下方式进一步提升Meetily体验:
- 工作流自动化:使用脚本将会议总结自动同步到Notion、Confluence等协作平台
- 模板定制:根据团队需求创建自定义总结模板,位于
frontend/src-tauri/templates/目录 - 模型微调:针对特定行业术语微调Whisper模型,提高专业内容识别准确率
- 插件开发:通过API扩展Meetily功能,如添加实时翻译、情绪分析等
Meetily的开源特性意味着你可以根据需求自由定制,打造真正属于你的会议助手。无论是小型团队还是大型企业,都能通过这款工具提升会议效率,同时确保数据安全。
现在就开始你的本地AI会议助手之旅吧——隐私与智能,从此可以兼得。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust062
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00




