Shaka Player 4.14.12版本发布:关键修复与优化
Shaka Player是由谷歌开发并开源的一款功能强大的HTML5视频播放器,支持DASH、HLS等多种流媒体协议。作为一款企业级播放器解决方案,Shaka Player以其稳定性、跨平台兼容性和丰富的功能特性在流媒体领域广受好评。本次发布的4.14.12版本虽然是一个小版本更新,但包含了对多个关键问题的修复,进一步提升了播放器的稳定性和用户体验。
核心问题修复
本次更新中最值得关注的是对内存泄漏问题的修复。开发团队发现当处理元数据(Metadata)和EMSG时间线时,播放器存在内存泄漏的风险。这个问题在长时间播放场景下尤为明显,可能导致浏览器内存占用持续增长,最终影响播放性能甚至导致崩溃。通过优化内存管理机制,现在播放器能够正确释放这些资源,显著提升了长时间播放的稳定性。
另一个重要修复涉及Sony Bravia电视上的PlayReady DRM兼容性问题。某些特定型号的Sony电视在使用PlayReady DRM时会出现播放失败的情况。开发团队通过调整DRM实现细节,解决了这一硬件特定的兼容性问题,确保了在这些设备上的流畅播放体验。
播放体验优化
在文本轨道处理方面,本次更新修复了一个影响用户体验的问题。当用户在包含字幕的流和不含字幕的流之间切换时,字幕显示状态可能会出现异常。新版本通过改进文本轨道的状态管理机制,确保了切换过程中的字幕显示行为更加符合预期。
对于直播内容的处理也有改进。开发团队优化了setLiveSeekableRange和clearLiveSeekableRange的调用时机,确保这些操作在正确的时间点执行,从而提升了直播内容的播放稳定性,特别是在处理动态变化的直播窗口时表现更加可靠。
DRM相关改进
数字版权管理(DRM)是流媒体播放的关键组件,本次更新包含了几项DRM相关的改进:
- 修复了当DRM引擎不可用时仍会检查密钥状态变化的问题,避免了不必要的操作和潜在错误。
- 对Apple设备的媒体密钥处理进行了优化,防止了PatchedMediaKeysApple polyfill被重复安装/卸载的问题。
- 修正了eme-encryption-scheme-polyfill中对null encryptionScheme的处理,现在能够正确识别这种情况为有效状态。
用户界面改进
Shaka Player的用户界面也获得了一些重要更新:
- 修复了Safari浏览器中从全屏模式切换到画中画(PiP)模式时的过渡问题,使这一过程更加平滑。
- 优化了投屏时的可见性事件处理,确保在不同播放场景下界面状态能够正确响应。
- 改进了进度条显示逻辑,现在在跳转播放位置后能够保持当前的位置渐变效果,提供更直观的视觉反馈。
- 对VR相关功能进行了优化,现在只会在必要时创建VR画布,减少了不必要的资源消耗。
配置处理优化
对于开发者而言,本次更新还改进了配置处理逻辑。当配置中包含对输入数组的多个引用时,之前的版本可能会出现配置失败的情况。新版本通过优化配置解析过程,解决了这一问题,使得复杂的配置场景更加可靠。
总结
Shaka Player 4.14.12版本虽然是一个维护性更新,但包含了对多个关键问题的修复和优化,进一步提升了播放器的稳定性、兼容性和用户体验。从内存泄漏修复到特定设备兼容性改进,从DRM处理优化到用户界面细节调整,这些改进共同确保了Shaka Player在各种使用场景下都能提供可靠、流畅的播放体验。对于正在使用Shaka Player的开发者来说,升级到这个版本将有助于解决一些已知问题并提升整体播放质量。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00