Meetily用户手册:高效会议记录与AI总结技巧
2026-02-04 04:15:22作者:彭桢灵Jeremy
你是否还在为会议记录耗费2小时整理1小时的讨论?是否担心云端AI工具泄露敏感会议内容?Meetily——这款完全本地运行的开源AI会议记录生成器,将彻底改变你的会议管理方式。本文将系统讲解从安装部署到高级功能的全流程技巧,帮助你实现"会议结束即得纪要"的高效工作流。
目录
核心优势
Meetily作为本地化AI会议助手,具备以下核心优势:
| 特性 | Meetily | 传统记录方式 | 云端AI工具 |
|---|---|---|---|
| 处理速度 | 实时转录(≤2秒延迟) | 人工耗时2-3倍 | 依赖网络延迟 |
| 数据安全 | 100%本地存储 | 纸质/本地文档 | 云端存储风险 |
| 成本结构 | 一次性部署(免费开源) | 人力成本 | 按次/订阅收费 |
| 离线可用 | 完全支持 | 支持 | 完全不支持 |
| 定制能力 | 模型/提示词自定义 | 高度定制 | 有限定制 |
快速部署指南
系统要求
- 最低配置:4核CPU/8GB RAM/10GB硬盘空间
- 推荐配置:8核CPU/16GB RAM/NVIDIA GPU(可选,加速AI处理)
- 支持系统:Windows 10+/macOS 12+/Linux(Ubuntu 20.04+)
Docker一键部署(推荐)
# 克隆仓库
git clone https://gitcode.com/GitHub_Trending/me/meeting-minutes
cd meeting-minutes/backend
# Windows(PowerShell)
.\build-docker.ps1 cpu
.\run-docker.ps1 start -Interactive
# macOS/Linux
./build-docker.sh cpu
./run-docker.sh start --interactive
⚠️ 首次启动会自动下载约500MB基础模型,根据网络情况需要5-15分钟
本地编译部署
Windows环境
# 安装依赖(管理员权限)
Set-ExecutionPolicy Bypass -Scope Process -Force
.\install_dependancies_for_windows.ps1
# 构建Whisper模型
build_whisper.cmd medium
# 启动服务
start_with_output.ps1
macOS/Linux环境
# 安装系统依赖
brew install python@3.9 cmake llvm libomp ffmpeg # macOS
# 或
sudo apt install python3.9 cmake llvm libomp ffmpeg # Linux
# 构建并启动
./build_whisper.sh medium
./clean_start_backend.sh
界面功能详解
主界面布局
mindmap
root((主界面))
顶部工具栏
录音控制区
会议信息编辑
设置入口
左侧导航栏
会议列表
收藏记录
回收站
中央工作区
实时转录文本
AI总结面板
时间轴控制
右侧功能面板
参会人管理
任务分配
导出选项
核心功能操作
1. 会议录制控制
- 麦克风+系统音频双录:点击工具栏"录制"按钮旁的下拉箭头,选择音频源组合
- 暂停/继续:使用快捷键
Ctrl+Shift+Space(Windows)或Cmd+Shift+Space(macOS) - 标记重要节点:会议中按
Ctrl+M添加时间戳标记,后续可快速定位
2. 实时转录与编辑
- ** speaker识别**:首次使用需在设置中启用"说话人分离",支持最多8人同时识别
- 实时纠错:点击转录文本直接修改,系统会自动学习你的术语偏好
- 重点高亮:选中文字按
Ctrl+H添加高亮,总结时将优先处理高亮内容
3. AI总结生成
Meetily提供三种总结模式:
- 快速摘要:200字以内核心结论,会议中实时更新
- 详细纪要:包含讨论要点、分歧意见、决策事项的结构化文档
- 行动项清单:自动提取待办事项,可直接分配负责人和截止日期
AI模型优化配置
模型选择指南
| 模型类型 | 适用场景 | 资源占用 | 转录准确率 |
|---|---|---|---|
| tiny.en | 英语快速会议 | 2GB RAM | 85-90% |
| base | 常规双语会议 | 4GB RAM | 90-95% |
| medium | 技术研讨会(多术语) | 8GB RAM | 95-98% |
| large-v3 | 重要战略会议 | 16GB RAM | 98-99% |
性能调优参数
修改backend/temp.env文件配置:
# 转录优化
WHISPER_MODEL=medium
WHISPER_LANGUAGE=zh
WHISPER_CHUNK_SIZE=3000
WHISPER_OVERLAP=200
# 总结优化
SUMMARY_PROVIDER=ollama
SUMMARY_MODEL=llama3.2:11b
CHUNK_SIZE=5000
OVERLAP=500
本地GPU加速配置
- 安装NVIDIA显卡驱动(版本≥525.60.13)
- 在Docker启动命令中添加
--gpu参数:
./run-docker.sh start --model large-v3 --gpu --detach
- 验证GPU是否启用:访问
http://localhost:5167/health,查看gpu_available字段
工作流实战技巧
团队协作最佳实践
会前准备
- 导入会议议程:通过"文件>导入议程"上传Word/Markdown文档,AI会据此优化转录重点
- 预设参会人:在会议详情页添加参会人列表,提高speaker识别准确率
- 自定义提示词:设置>AI>总结提示词,添加团队特有术语库
会中协作
- 实时共享:点击"共享"生成临时链接,团队成员可实时查看转录内容(仅局域网内)
- 协作编辑:授权参会人编辑权限,多人可同时标注重点内容
- 即时问答:右侧面板"AI助手"可针对当前讨论内容提问,获取即时解答
会后处理
timeline
title 会议后30分钟工作流
0分钟 : 自动生成总结初稿
5分钟 : 检查并修正转录错误
10分钟 : 分配行动项给团队成员
15分钟 : 导出为Markdown发送邮件
20分钟 : 同步至Notion/Confluence
30分钟 : 设置下次会议提醒
常见问题解决方案
转录质量问题
| 问题现象 | 可能原因 | 解决方案 |
|---|---|---|
| 识别错误多 | 口音重/专业术语多 | 1.切换至large模型 2.上传术语表至 backend/custom_terms.txt |
| 断句不自然 | 说话速度快 | 调整WHISPER_CHUNK_SIZE至4000 |
| speaker混淆 | 多人同时发言 | 启用"增强说话人分离",降低麦克风增益 |
性能优化方案
- 内存占用过高:关闭"实时总结",会议结束后再生成
- CPU占用100%:在设置>性能中,将线程数调为CPU核心数的1/2
- 转录延迟>5秒:降低模型等级,或关闭"实时翻译"功能
Docker部署常见问题
端口冲突解决
# 查看冲突进程
netstat -tulpn | grep 8178 # Linux
# 或
lsof -i :8178 # macOS
# 自定义端口启动
./run-docker.sh start --port 8179 --app-port 5168
模型下载失败
手动下载模型文件后放入指定目录:
- Windows:
C:\Users\<用户名>\.meetily\models - macOS/Linux:
~/.meetily/models
高级自定义选项
自定义总结模板
编辑backend/prompts/summary_template.md文件,支持Markdown格式,可包含:
{{meeting_topic}}- 会议主题{{start_time}}- 开始时间{{decision_points}}- 自动提取的决策点{{action_items}}- 自动提取的行动项
示例模板:
# {{meeting_topic}} 会议纪要
**时间**: {{start_time}} - {{end_time}}
**参会人**: {{attendees}}
## 讨论要点
{{discussion_points}}
## 决议事项
{{decision_points}}
## 行动项跟踪
{{action_items}}
## 待解决问题
{{open_issues}}
API集成开发
Meetily提供RESTful API供外部系统集成:
# 获取会议列表示例
import requests
response = requests.get(
"http://localhost:5167/api/meetings",
headers={"Authorization": "Bearer YOUR_API_KEY"}
)
for meeting in response.json():
print(f"{meeting['title']}: {meeting['date']} - {meeting['duration']}分钟")
完整API文档可在服务启动后访问http://localhost:5167/docs查看。
快捷键自定义
修改frontend/src/config/shortcuts.json配置个性化快捷键,支持:
- 全局快捷键
- 应用内快捷键
- 上下文相关快捷键
资源与后续步骤
必备资源
进阶学习路径
- 自定义Whisper模型微调
- 构建企业级私有知识库集成
- 开发自定义导出插件
收藏本文并关注项目更新,不错过即将发布的语音命令控制和多语言实时翻译功能!遇到使用问题或有功能建议,欢迎在GitHub Issues提交反馈。
通过Meetily将会议时间转化为有效产出,让AI真正成为你的会议效率助手。立即部署体验,开启高效会议新方式!
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
jiuwenclawJiuwenClaw 是一款基于openJiuwen开发的智能AI Agent,它能够将大语言模型的强大能力,通过你日常使用的各类通讯应用,直接延伸至你的指尖。Python0171- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
AtomGit城市坐标计划AtomGit 城市坐标计划开启!让开源有坐标,让城市有星火。致力于与城市合伙人共同构建并长期运营一个健康、活跃的本地开发者生态。01
hotgoHotGo 是一个基于 vue 和 goframe2.0 开发的全栈前后端分离的开发基础平台和移动应用平台,集成jwt鉴权,动态路由,动态菜单,casbin鉴权,消息队列,定时任务等功能,提供多种常用场景文件,让您把更多时间专注在业务开发上。Go03
热门内容推荐
最新内容推荐
Degrees of Lewdity中文汉化终极指南:零基础玩家必看的完整教程Unity游戏翻译神器:XUnity Auto Translator 完整使用指南PythonWin7终极指南:在Windows 7上轻松安装Python 3.9+终极macOS键盘定制指南:用Karabiner-Elements提升10倍效率Pandas数据分析实战指南:从零基础到数据处理高手 Qwen3-235B-FP8震撼升级:256K上下文+22B激活参数7步搞定机械键盘PCB设计:从零开始打造你的专属键盘终极WeMod专业版解锁指南:3步免费获取完整高级功能DeepSeek-R1-Distill-Qwen-32B技术揭秘:小模型如何实现大模型性能突破音频修复终极指南:让每一段受损声音重获新生
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
597
4 K
Ascend Extension for PyTorch
Python
434
524
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
917
755
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
365
244
暂无简介
Dart
842
204
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.45 K
814
昇腾LLM分布式训练框架
Python
130
154
AscendNPU-IR是基于MLIR(Multi-Level Intermediate Representation)构建的,面向昇腾亲和算子编译时使用的中间表示,提供昇腾完备表达能力,通过编译优化提升昇腾AI处理器计算效率,支持通过生态框架使能昇腾AI处理器与深度调优
C++
112
166
华为昇腾面向大规模分布式训练的多模态大模型套件,支撑多模态生成、多模态理解。
Python
128
173