tsMuxer 2.7.0版本发布:多媒体容器处理工具的重大更新
tsMuxer是一款开源的多媒体容器处理工具,主要用于将视频、音频和字幕等多媒体流重新封装到不同的容器格式中。它支持多种输入和输出格式,包括TS、M2TS、MKV等,特别适合用于蓝光光盘制作和流媒体处理。本次2.7.0版本是该项目的最终版本,项目维护者宣布将停止开发工作。
核心功能改进
tsMuxer 2.7.0版本在视频处理方面进行了多项重要改进。该版本增强了对HEVC/H.265视频流的支持,包括修复了缓冲区问题,改进了帧率信息从VPS和SPS中的读取方式。对于蓝光格式支持,特别优化了UHD蓝光文件夹的处理行为,修正了CPI表,并实现了自动V3模式处理HEVC视频。
在音频处理方面,2.7.0版本修正了EAC3采样率和声道解析,移除了AV数据包大小的限制,并修复了WAV64文件的处理问题。新增了对纯TrueHD编解码器的支持,使音频处理能力更加全面。
容器格式支持增强
新版本在容器格式支持方面有显著提升。改进了对MP4文件的读取能力,包括对分片MP4的支持,并修复了MP4文件中的音频延迟检测问题。同时增强了对M4V文件的支持,使工具能够处理更多类型的媒体文件。
在蓝光格式支持方面,2.7.0版本修正了UHD视频在MPLS和CLPI文件中的格式表示,改进了Dolby Vision的集成,支持了多种Dolby Vision配置文件的处理,包括旧版的配置文件2、3和6。
字幕处理优化
字幕处理方面,2.7.0版本有多项改进。修复了字幕时间戳问题,改进了文本字幕渲染,并修正了Windows系统下字幕间距不正确的问题。对于PGS字幕,更新了4位帧率代码的处理方式,确保字幕同步更加准确。
在字幕PID处理上,修正了HDR内容下字幕PID应从0x12A0开始的逻辑,使蓝光兼容性更好。同时修复了连接M2TS文件时的字幕延迟问题。
系统兼容性与架构改进
2.7.0版本在系统兼容性方面做了大量工作。项目从C++11升级到C++17标准,采用了更现代的编程范式。移除了所有自定义浮点转换函数,改用标准库实现,提高了代码的可移植性。
对于不同操作系统,修复了Linux下字体文件无效导致的崩溃问题,改进了macOS下的字体处理,并确保Windows系统下正确处理非ASCII字符的ISO标签。新增了对ARM架构Linux系统的构建支持。
用户界面增强
GUI部分进行了多项改进,包括新增了调整PIP透明度的选项,改进了轨道顺序在元文件中的保存方式,修复了移除音轨/字幕轨时的崩溃问题。现在用户可以通过点击"添加"按钮一次选择多个文件,大大提升了操作效率。
界面国际化方面,新增了法语、德语、希伯来语和西班牙语翻译,使工具能够服务于更广泛的用户群体。同时修复了翻译字符串出现在元文件中的问题,确保元文件的兼容性。
性能与稳定性提升
2.7.0版本在性能和稳定性方面有显著改进。修复了多处内存管理问题,包括缓冲区问题、内存泄漏和无效删除操作。改进了文件读取逻辑,增加了数据检查,防止潜在的安全问题。
在时间戳处理方面,修正了到达时间戳(ATS)的计算方式,修复了音频轨道延迟问题,并改进了PTS错误处理。这些改进使得输出文件的同步更加精确。
项目现状与未来
2.7.0版本作为tsMuxer的最终版本,项目维护者宣布将停止开发工作。尽管如此,该版本已经实现了对现代多媒体格式的全面支持,包括HEVC、Dolby Vision和VVC等最新编解码器。项目代码完全开源,鼓励社区成员继续维护和发展这个有用的多媒体工具。
对于用户而言,2.7.0版本提供了稳定、功能丰富的多媒体容器处理解决方案,特别适合需要精确控制媒体流封装的专业用户。虽然项目停止开发,但现有功能已能满足大多数高级媒体处理需求。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00