Feishin:现代自托管音乐播放器完整使用指南 🎵
Feishin是一款现代化的自托管音乐播放器,支持多种音乐服务器协议,为您带来完全掌控音乐体验的自由。无论您使用Navidrome、Jellyfin还是OpenSubsonic兼容的服务器,Feishin都能提供流畅的播放体验和美观的界面设计。
✨ 核心功能亮点
Feishin拥有多项强大的功能,让您的音乐体验更加完美:
- 双播放引擎:支持MPV播放器后端和Web播放器后端
- 智能播放列表:通过条件组合自动生成个性化播放列表
- 完整歌词支持:同步和非同步歌词显示,让您边听边唱
- 现代UI设计:深色主题,直观导航,响应式布局
- 跨平台支持:Windows、macOS、Linux、Docker全面覆盖
🖥️ 界面体验概览
Feishin的界面设计简洁优雅,让您轻松管理庞大的音乐库。主界面采用经典的左右分栏布局,左侧导航栏清晰分类音乐库和播放列表,右侧内容区动态展示推荐内容。
首页界面提供多种音乐发现方式,包括轮播推荐、最新添加专辑和个性化探索,让您每次打开都能发现新的音乐惊喜。
🎶 全屏播放体验
当您沉浸在音乐中时,Feishin的全屏播放界面提供沉浸式体验:
全屏界面不仅展示当前播放歌曲的详细信息,还提供完整的歌词显示功能。您可以在UP NEXT、RELATED和LYRICS标签页间自由切换,享受全方位的音乐体验。
📚 专辑管理功能
Feishin的专辑详情页面让您轻松浏览和管理音乐收藏:
专辑页面详细展示曲目列表、播放统计和音质信息,帮助您更好地了解自己的听歌习惯。
🧠 智能播放列表
这是Feishin最具特色的功能之一,通过Query Editor可以创建复杂的播放规则:
您可以设置多个条件组合,如按艺术家、年份、播放次数等,系统会自动为您生成符合要求的播放列表,真正做到智能化音乐推荐。
🚀 快速开始使用
桌面客户端安装(推荐)
桌面客户端是使用Feishin的最佳方式,支持MPV和Web播放器后端,并内置歌词获取功能。
Linux用户可以使用提供的安装脚本快速部署:
dir=/your/application/directory
curl 'https://raw.githubusercontent.com/jeffvli/feishin/refs/heads/development/install-feishin-appimage' | sh -s -- "$dir"
Docker部署
如果您偏好容器化部署,Feishin提供了完整的Docker支持:
# 运行最新版本
docker run --name feishin -p 9180:9180 ghcr.io/jeffvli/feishin:latest
🔧 配置指南
首次启动Feishin时,您需要完成几个简单的配置步骤:
- 设置MPV路径:选择系统中MPV播放器的二进制文件路径
- 添加音乐服务器:在设置中管理服务器,添加您的音乐服务器信息
- 个性化设置:根据您的偏好调整界面主题、播放选项等
📱 多平台适配
Feishin针对不同操作系统进行了优化:
- macOS:完整的媒体键支持和无障碍访问权限配置
- Linux:AppImage格式支持,自动生成桌面启动器
- Windows:原生Windows体验,无缝集成
💡 使用技巧
- 快捷键操作:熟悉常用的快捷键可以大幅提升使用效率
- 智能播放列表:善用查询编辑器创建符合您心情的播放列表
- 歌词同步:开启歌词显示功能,让音乐体验更加丰富
🎯 支持的服务器类型
Feishin兼容多种流行的音乐服务器:
- Navidrome:轻量级自托管音乐服务器
- Jellyfin:功能丰富的媒体服务器
- OpenSubsonic:任何符合OpenSubsonic标准的服务器
通过Feishin,您可以重新获得对音乐收藏的完全控制权,享受纯粹、无干扰的音乐体验。无论您是音乐爱好者还是技术爱好者,Feishin都能满足您对音乐播放器的所有期待。
开始您的Feishin之旅,体验现代自托管音乐播放器的魅力吧!🎧
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00



