Meetily用户手册:高效会议记录与AI总结技巧
2026-02-04 04:15:22作者:彭桢灵Jeremy
你是否还在为会议记录耗费2小时整理1小时的讨论?是否担心云端AI工具泄露敏感会议内容?Meetily——这款完全本地运行的开源AI会议记录生成器,将彻底改变你的会议管理方式。本文将系统讲解从安装部署到高级功能的全流程技巧,帮助你实现"会议结束即得纪要"的高效工作流。
目录
核心优势
Meetily作为本地化AI会议助手,具备以下核心优势:
| 特性 | Meetily | 传统记录方式 | 云端AI工具 |
|---|---|---|---|
| 处理速度 | 实时转录(≤2秒延迟) | 人工耗时2-3倍 | 依赖网络延迟 |
| 数据安全 | 100%本地存储 | 纸质/本地文档 | 云端存储风险 |
| 成本结构 | 一次性部署(免费开源) | 人力成本 | 按次/订阅收费 |
| 离线可用 | 完全支持 | 支持 | 完全不支持 |
| 定制能力 | 模型/提示词自定义 | 高度定制 | 有限定制 |
快速部署指南
系统要求
- 最低配置:4核CPU/8GB RAM/10GB硬盘空间
- 推荐配置:8核CPU/16GB RAM/NVIDIA GPU(可选,加速AI处理)
- 支持系统:Windows 10+/macOS 12+/Linux(Ubuntu 20.04+)
Docker一键部署(推荐)
# 克隆仓库
git clone https://gitcode.com/GitHub_Trending/me/meeting-minutes
cd meeting-minutes/backend
# Windows(PowerShell)
.\build-docker.ps1 cpu
.\run-docker.ps1 start -Interactive
# macOS/Linux
./build-docker.sh cpu
./run-docker.sh start --interactive
⚠️ 首次启动会自动下载约500MB基础模型,根据网络情况需要5-15分钟
本地编译部署
Windows环境
# 安装依赖(管理员权限)
Set-ExecutionPolicy Bypass -Scope Process -Force
.\install_dependancies_for_windows.ps1
# 构建Whisper模型
build_whisper.cmd medium
# 启动服务
start_with_output.ps1
macOS/Linux环境
# 安装系统依赖
brew install python@3.9 cmake llvm libomp ffmpeg # macOS
# 或
sudo apt install python3.9 cmake llvm libomp ffmpeg # Linux
# 构建并启动
./build_whisper.sh medium
./clean_start_backend.sh
界面功能详解
主界面布局
mindmap
root((主界面))
顶部工具栏
录音控制区
会议信息编辑
设置入口
左侧导航栏
会议列表
收藏记录
回收站
中央工作区
实时转录文本
AI总结面板
时间轴控制
右侧功能面板
参会人管理
任务分配
导出选项
核心功能操作
1. 会议录制控制
- 麦克风+系统音频双录:点击工具栏"录制"按钮旁的下拉箭头,选择音频源组合
- 暂停/继续:使用快捷键
Ctrl+Shift+Space(Windows)或Cmd+Shift+Space(macOS) - 标记重要节点:会议中按
Ctrl+M添加时间戳标记,后续可快速定位
2. 实时转录与编辑
- ** speaker识别**:首次使用需在设置中启用"说话人分离",支持最多8人同时识别
- 实时纠错:点击转录文本直接修改,系统会自动学习你的术语偏好
- 重点高亮:选中文字按
Ctrl+H添加高亮,总结时将优先处理高亮内容
3. AI总结生成
Meetily提供三种总结模式:
- 快速摘要:200字以内核心结论,会议中实时更新
- 详细纪要:包含讨论要点、分歧意见、决策事项的结构化文档
- 行动项清单:自动提取待办事项,可直接分配负责人和截止日期
AI模型优化配置
模型选择指南
| 模型类型 | 适用场景 | 资源占用 | 转录准确率 |
|---|---|---|---|
| tiny.en | 英语快速会议 | 2GB RAM | 85-90% |
| base | 常规双语会议 | 4GB RAM | 90-95% |
| medium | 技术研讨会(多术语) | 8GB RAM | 95-98% |
| large-v3 | 重要战略会议 | 16GB RAM | 98-99% |
性能调优参数
修改backend/temp.env文件配置:
# 转录优化
WHISPER_MODEL=medium
WHISPER_LANGUAGE=zh
WHISPER_CHUNK_SIZE=3000
WHISPER_OVERLAP=200
# 总结优化
SUMMARY_PROVIDER=ollama
SUMMARY_MODEL=llama3.2:11b
CHUNK_SIZE=5000
OVERLAP=500
本地GPU加速配置
- 安装NVIDIA显卡驱动(版本≥525.60.13)
- 在Docker启动命令中添加
--gpu参数:
./run-docker.sh start --model large-v3 --gpu --detach
- 验证GPU是否启用:访问
http://localhost:5167/health,查看gpu_available字段
工作流实战技巧
团队协作最佳实践
会前准备
- 导入会议议程:通过"文件>导入议程"上传Word/Markdown文档,AI会据此优化转录重点
- 预设参会人:在会议详情页添加参会人列表,提高speaker识别准确率
- 自定义提示词:设置>AI>总结提示词,添加团队特有术语库
会中协作
- 实时共享:点击"共享"生成临时链接,团队成员可实时查看转录内容(仅局域网内)
- 协作编辑:授权参会人编辑权限,多人可同时标注重点内容
- 即时问答:右侧面板"AI助手"可针对当前讨论内容提问,获取即时解答
会后处理
timeline
title 会议后30分钟工作流
0分钟 : 自动生成总结初稿
5分钟 : 检查并修正转录错误
10分钟 : 分配行动项给团队成员
15分钟 : 导出为Markdown发送邮件
20分钟 : 同步至Notion/Confluence
30分钟 : 设置下次会议提醒
常见问题解决方案
转录质量问题
| 问题现象 | 可能原因 | 解决方案 |
|---|---|---|
| 识别错误多 | 口音重/专业术语多 | 1.切换至large模型 2.上传术语表至 backend/custom_terms.txt |
| 断句不自然 | 说话速度快 | 调整WHISPER_CHUNK_SIZE至4000 |
| speaker混淆 | 多人同时发言 | 启用"增强说话人分离",降低麦克风增益 |
性能优化方案
- 内存占用过高:关闭"实时总结",会议结束后再生成
- CPU占用100%:在设置>性能中,将线程数调为CPU核心数的1/2
- 转录延迟>5秒:降低模型等级,或关闭"实时翻译"功能
Docker部署常见问题
端口冲突解决
# 查看冲突进程
netstat -tulpn | grep 8178 # Linux
# 或
lsof -i :8178 # macOS
# 自定义端口启动
./run-docker.sh start --port 8179 --app-port 5168
模型下载失败
手动下载模型文件后放入指定目录:
- Windows:
C:\Users\<用户名>\.meetily\models - macOS/Linux:
~/.meetily/models
高级自定义选项
自定义总结模板
编辑backend/prompts/summary_template.md文件,支持Markdown格式,可包含:
{{meeting_topic}}- 会议主题{{start_time}}- 开始时间{{decision_points}}- 自动提取的决策点{{action_items}}- 自动提取的行动项
示例模板:
# {{meeting_topic}} 会议纪要
**时间**: {{start_time}} - {{end_time}}
**参会人**: {{attendees}}
## 讨论要点
{{discussion_points}}
## 决议事项
{{decision_points}}
## 行动项跟踪
{{action_items}}
## 待解决问题
{{open_issues}}
API集成开发
Meetily提供RESTful API供外部系统集成:
# 获取会议列表示例
import requests
response = requests.get(
"http://localhost:5167/api/meetings",
headers={"Authorization": "Bearer YOUR_API_KEY"}
)
for meeting in response.json():
print(f"{meeting['title']}: {meeting['date']} - {meeting['duration']}分钟")
完整API文档可在服务启动后访问http://localhost:5167/docs查看。
快捷键自定义
修改frontend/src/config/shortcuts.json配置个性化快捷键,支持:
- 全局快捷键
- 应用内快捷键
- 上下文相关快捷键
资源与后续步骤
必备资源
进阶学习路径
- 自定义Whisper模型微调
- 构建企业级私有知识库集成
- 开发自定义导出插件
收藏本文并关注项目更新,不错过即将发布的语音命令控制和多语言实时翻译功能!遇到使用问题或有功能建议,欢迎在GitHub Issues提交反馈。
通过Meetily将会议时间转化为有效产出,让AI真正成为你的会议效率助手。立即部署体验,开启高效会议新方式!
登录后查看全文
热门项目推荐
相关项目推荐
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
GLM-4.7-FlashGLM-4.7-Flash 是一款 30B-A3B MoE 模型。作为 30B 级别中的佼佼者,GLM-4.7-Flash 为追求性能与效率平衡的轻量化部署提供了全新选择。Jinja00
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin07
compass-metrics-modelMetrics model project for the OSS CompassPython00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
525
3.72 K
Ascend Extension for PyTorch
Python
329
391
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
877
578
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
335
162
暂无简介
Dart
764
189
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.33 K
746
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
67
20
React Native鸿蒙化仓库
JavaScript
302
350