【亲测免费】 Jellyfin MPV Shim 使用教程
1. 项目介绍
Jellyfin MPV Shim 是一个跨平台的 Jellyfin 投屏客户端,支持直接播放大多数媒体文件而不需要转码,并且提供了许多独特的功能。它使用 MPV 作为播放引擎,支持与 SyncPlay 一起观看视频,具有后台运行的 shim 模式,Jellyfin 移动应用可以完全控制客户端,还可以一次性重新配置整个季度的字幕,支持所有 MPV 键盘快捷键,增强视频效果的 Shader Packs 和 SVP 集成,以及通过 Discord Rich Presence 与朋友分享媒体活动等功能。
2. 项目快速启动
2.1 安装
2.1.1 Windows
在 Windows 上,您可以直接下载二进制文件并运行。
2.1.2 Linux
在 Linux 上,您可以通过 flathub 或 pip 安装:
# 通过 pip 安装
pip install jellyfin-mpv-shim
2.1.3 macOS
在 macOS 上,请参考下面的 macOS 安装部分。
2.2 启动客户端
启动客户端并登录到您的 Jellyfin 服务器。您需要输入服务器的 URL,例如 http://server_ip:8096 或 https://secure_domain。确保包含子目录和端口号(如果适用)。
jellyfin-mpv-shim
2.3 使用
启动后,您可以从其他 Jellyfin 应用程序投屏媒体。应用程序默认运行时会有一个通知图标,您可以使用它来编辑服务器设置、查看应用程序日志、打开配置文件夹和打开应用程序菜单。
3. 应用案例和最佳实践
3.1 家庭影院
Jellyfin MPV Shim 非常适合用于家庭影院系统,支持直接播放高清视频文件,无需转码,节省系统资源。通过 SyncPlay 功能,您可以与家人或朋友一起观看视频,享受同步播放的乐趣。
3.2 媒体服务器
如果您有一个媒体服务器,Jellyfin MPV Shim 可以作为一个强大的客户端,支持所有高级媒体文件格式,并且可以通过移动应用进行远程控制。
3.3 视频编辑
对于视频编辑人员,Jellyfin MPV Shim 提供了一个强大的播放器,支持各种视频格式和字幕配置,方便预览和编辑视频。
4. 典型生态项目
4.1 Jellyfin
Jellyfin 是一个自由软件媒体系统,允许您控制和流式传输您的媒体。Jellyfin MPV Shim 是 Jellyfin 生态系统中的一个重要组成部分,提供了强大的播放功能。
4.2 MPV
MPV 是一个高度可定制的开源媒体播放器,支持各种视频和音频格式。Jellyfin MPV Shim 使用 MPV 作为播放引擎,提供了丰富的播放功能和配置选项。
4.3 SyncPlay
SyncPlay 是一个允许用户同步观看视频的工具,Jellyfin MPV Shim 集成了 SyncPlay,使得多人可以同步观看视频,非常适合家庭或朋友聚会。
通过以上模块的介绍,您应该能够快速上手并充分利用 Jellyfin MPV Shim 的功能。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00