ErsatzTV v25.2.0版本发布:功能增强与性能优化
ErsatzTV是一个开源的电视流媒体服务器项目,它允许用户将个人媒体库转换为可直播的电视频道。该项目支持多种硬件加速方案,提供灵活的节目编排功能,并能与主流媒体服务器如Plex、Jellyfin等集成。
跨平台支持与部署优化
本次发布的v25.2.0版本在跨平台支持方面做出了显著改进。新增了对Alpine Linux x64系统的支持,通过提供linux-musl-x64构建包满足了使用musl libc用户的需求。同时,项目现在支持将管理界面和流媒体服务分别运行在不同端口上,通过ETV_UI_PORT和ETV_STREAMING_PORT环境变量实现灵活配置。
Docker部署方面也有重要更新,现在所有硬件加速方案(包括VAAPI、QSV和NVIDIA)都统一整合到基础镜像中,简化了部署流程。项目还开始向GitHub容器注册表发布镜像,为用户提供了更多镜像获取渠道。
调度系统增强
调度系统是本版本的重点改进领域之一。新增了"固定开始时间行为"选项,允许用户为节目表项设置严格或灵活的开始时间策略:
- 严格模式:确保节目在精确的预定时间开始,即使需要等待到第二天
- 灵活模式:当严格等待会导致进入第二天时,立即开始调度
这种细粒度控制使得节目编排更加符合实际运营需求。此外,调度编辑器新增了克隆节目表项的功能,简化了相似节目的创建流程。
硬件加速与转码改进
视频处理方面,v25.2.0引入了对HDR内容转码的基础支持:
- VAAPI在OpenCL加速可用时可使用硬件色调映射
- NVIDIA在Vulkan加速和libplacebo滤镜可用时可使用硬件色调映射
- QSV在使用硬件解码时可使用硬件色调映射
- 其他情况将回退到软件处理流水线
项目还优化了VAAPI的硬件加速填充功能,并升级了各平台捆绑的FFmpeg版本至7.1.1,提升了转码效率和兼容性。
媒体管理与搜索功能
媒体管理方面,改进了对Plex和Jellyfin集成的稳定性:
- 移除了Jellyfin管理员用户的强制要求
- 优化了Plex连接地址的缓存和检测机制
- 改进了Plex空集合同步时的错误处理
搜索功能现在支持通过智能集合名称进行查询,并改进了集合内容的索引方式。YAML播放序列定义现在支持引用其他序列,并增加了重复指令,增强了播放列表的灵活性。
用户体验改进
用户界面进行了多项优化:
- 开始实现响应式设计,改善小屏幕设备上的使用体验
- 修复了含小数点频道号在特定区域设置下的显示问题
- 优化了播放详情表的重新加载逻辑和日期格式化
- 增加了环境变量信息的显示,便于故障排查
XMLTV输出方面,修复了节目分组问题和滚动填充逻辑,提升了电子节目指南的准确性。
总结
ErsatzTV v25.2.0通过增强的调度系统、改进的硬件加速支持和优化的用户界面,为用户提供了更强大、更稳定的个人电视流媒体解决方案。特别是对HDR内容的支持和多端口部署能力,使得该项目在家庭媒体中心和专业应用场景中都更具竞争力。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00