Yattee 1.5.2版本发布:跨平台视频播放器的全面升级
Yattee是一款开源的跨平台视频播放器应用,支持iOS、macOS和tvOS系统。作为一款专注于隐私和自定义体验的播放器,Yattee允许用户通过多种后端服务(如Invidious、Piped等)访问视频内容,同时提供了丰富的播放控制和个性化设置选项。
核心功能改进
播放引擎优化
-
MPVKit升级至v0.39.0:新版带来了更稳定的视频渲染和性能提升,特别是在处理高分辨率视频时表现更佳。
-
音频同步改进:通过优化音视频同步算法,解决了播放过程中可能出现的音画不同步问题。
-
HLS直播支持:修复了HLS直播流播放时的崩溃问题,提升了直播内容的观看体验。
-
分辨率智能选择:改进了流媒体分辨率处理逻辑,能够更智能地根据网络条件和设备性能选择最佳分辨率。
用户界面增强
-
全新图标设计:为iOS和macOS平台重新设计了应用图标,提供更现代的视觉体验。
-
手势操作扩展:
- 新增上滑手势切换全屏模式
- 视频详情页支持拖拽手势操作
- 允许用户禁用全屏滑动手势
-
控制面板自定义:
- 新增操作按钮标签显示选项(仅图标或图标+文字)
- 可调整控制面板背景透明度
- 音乐模式下缩略图填充优化
-
多语言支持:新增挪威语和中文(繁体)支持,完善了现有语言翻译。
特色功能升级
设置导入导出
-
全面配置迁移:支持导出所有设置、实例和用户配置,方便用户在不同设备间迁移配置。
-
选择性导入:允许用户选择性地导入配置文件中的特定元素。
-
安全选项:可选择在导出中包含未加密凭据,或在导入时手动输入凭据。
-
tvOS专属方案:为Apple TV提供了通过URL导入设置的功能。
Invidious集成增强
-
Companion支持:新增对Invidious Companion的支持,扩展了功能兼容性。
-
基础认证改进:完善了HTTP基础认证支持,提升与私有实例的兼容性。
-
章节图片:Invidious后端现在可以显示带有图片的视频章节。
-
高质量logo:更新了Invidious的高分辨率圆形logo。
播放体验优化
-
章节跳转提示:跳转章节时显示章节标题,提升导航体验。
-
播放结束处理:新增"播放结束时退出全屏"选项,并支持一键重新播放已结束视频。
-
后台播放:改进了后台音频播放的稳定性,优化了音频闪避处理。
-
SponsorBlock增强:
- 跳过赞助片段时直接跳至段尾而非暂停
- 提升了片段标记的识别准确性
技术架构改进
-
性能优化:
- 启用-O3编译优化提升执行效率
- 后台线程处理非UI任务加速界面响应
- 优化章节提取和流排序算法
-
稳定性提升:
- 修复了多处潜在崩溃点
- 改进了MPV在macOS上的稳定性
- 增强了异常处理和重试机制
-
网络层优化:
- 添加User-Agent标识
- 缩略图加载失败时自动重试
- 条件代理功能改进
-
平台适配:
- 简化iOS全屏和方向处理
- 改进tvOS订阅视图
- 优化macOS窗口管理
用户体验细节
-
历史记录管理:新增选项隐藏侧边栏最近活动或限制显示数量。
-
评论系统:
- 允许完全隐藏评论区
- 改进Invidious评论显示
- iOS端评论时间戳可点击
-
高级设置:
- 新增MPV去隔行扫描选项
- 数字输入字段专用键盘
- 缓存暂停初始设置
-
快捷键支持:macOS平台新增跳过、播放/暂停和全屏快捷键。
Yattee 1.5.2版本通过这一系列改进,进一步巩固了其作为隐私友好型跨平台视频播放器的地位,为用户提供了更流畅、更可定制的观看体验。无论是核心播放功能还是周边体验细节,都体现了开发团队对产品质量和用户需求的持续关注。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C030
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00