如何快速为离线音乐库批量下载同步歌词?LRCGET完整指南 🎵
2026-02-05 04:38:57作者:贡沫苏Truman
LRCGET 是一款专为离线音乐库设计的批量下载同步歌词工具。它能够扫描你指定的目录中的所有音乐文件,并尝试下载相应的 LRC 歌词文件,保存到与音乐文件相同的目录中。LRCGET 是 LRCLIB 服务的官方客户端,确保你能够轻松获取高质量的同步歌词。
📌 核心功能:让你的音乐体验更完整
LRCGET 提供了一站式歌词解决方案,主要功能包括:
- 智能目录扫描:自动识别音乐文件夹中的音频文件
- 批量歌词下载:一次性为整个音乐库获取同步歌词
- 精准匹配技术:基于音频指纹和元数据双重匹配
- 本地歌词管理:自动将歌词保存到音乐文件相同目录
- 内置歌词编辑器:支持手动调整和优化歌词时间轴
🖥️ 界面预览:简洁直观的操作体验
LRCGET 采用现代化界面设计,让歌词管理变得轻松简单:
主界面概览
展示了音乐库、当前播放和歌词搜索三大核心区域,用户可以一目了然地掌握所有功能入口。
歌词搜索与下载
提供多种搜索策略选择,支持按歌曲信息精确查找或按音频特征模糊匹配,满足不同场景需求。
歌词编辑功能
内置的歌词编辑器支持逐句调整时间戳,让你轻松制作完美同步的歌词文件。
⚡ 快速安装:三步即可上手
1. 获取源代码
git clone https://gitcode.com/gh_mirrors/lr/lrcget
2. 安装依赖
进入项目目录后执行:
npm install
3. 启动应用
开发模式启动:
npm run tauri dev
🚀 使用教程:从新手到专家
设置音乐库目录
首次启动后,你需要指定音乐库所在的文件夹:
- 点击主界面"选择目录"按钮
- 在弹出窗口中导航到你的音乐文件夹
- 点击"确认"开始扫描
批量下载歌词
扫描完成后,你可以:
- 选择需要下载歌词的歌曲(可多选)
- 点击"下载歌词"按钮
- 选择匹配策略(精确匹配/模糊匹配)
- 等待下载完成,进度实时显示
手动调整歌词
如果自动下载的歌词不够精准:
- 在歌曲列表中右键点击目标歌曲
- 选择"编辑歌词"
- 在编辑器中调整时间戳
- 点击"保存"覆盖原歌词文件
💡 高级技巧:提升使用效率
自定义下载规则
通过设置界面可以:
- 配置歌词优先级(本地优先/在线优先)
- 设置自动重命名规则
- 调整扫描深度和文件类型过滤
快捷键一览
Ctrl+R:刷新音乐库Ctrl+D:下载选中歌曲歌词Ctrl+E:编辑当前选中歌词F5:重新扫描当前目录
🛠️ 项目结构解析
核心功能模块路径:
- 主程序入口:
src-tauri/src/main.rs - 歌词下载逻辑:
src-tauri/src/lrclib/ - 音乐库管理:
src-tauri/src/library.rs - 前端界面组件:
src/components/ - 状态管理:
src/composables/global-state.js
❓ 常见问题解答
Q: 支持哪些音频格式?
A: 目前支持 MP3、FLAC、WAV、AAC、OGG 等主流音频格式。
Q: 歌词文件会保存在哪里?
A: 默认与音乐文件保存在同一目录,文件名相同,扩展名为 .lrc。
Q: 如何更新到最新版本?
A: 进入项目目录执行 git pull 后重新编译即可。
Q: 没有网络时可以使用吗?
A: 可以,程序会优先使用本地已有的歌词文件。
LRCGET 持续更新中,欢迎体验并提出宝贵意见!如果你有任何问题或建议,欢迎通过项目Issue系统反馈。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
最新内容推荐
Degrees of Lewdity中文汉化终极指南:零基础玩家必看的完整教程Unity游戏翻译神器:XUnity Auto Translator 完整使用指南PythonWin7终极指南:在Windows 7上轻松安装Python 3.9+终极macOS键盘定制指南:用Karabiner-Elements提升10倍效率Pandas数据分析实战指南:从零基础到数据处理高手 Qwen3-235B-FP8震撼升级:256K上下文+22B激活参数7步搞定机械键盘PCB设计:从零开始打造你的专属键盘终极WeMod专业版解锁指南:3步免费获取完整高级功能DeepSeek-R1-Distill-Qwen-32B技术揭秘:小模型如何实现大模型性能突破音频修复终极指南:让每一段受损声音重获新生
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
570
3.84 K
Ascend Extension for PyTorch
Python
380
454
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
894
677
暂无简介
Dart
803
198
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
353
207
昇腾LLM分布式训练框架
Python
119
147
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
68
20
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
781