Xpra v6.3版本发布:跨平台远程桌面工具的重大升级
Xpra是一款开源的跨平台远程桌面工具,它允许用户将应用程序从远程服务器分离并在本地重新附加,同时保持应用程序的运行状态。Xpra支持多种操作系统,包括Linux、Windows和macOS,并提供高效的图形传输和会话管理功能。
平台构建与打包优化
本次v6.3版本在构建系统方面进行了多项重要改进。首先,Windows平台的构建脚本被完全重写,解决了长期存在的构建问题,提高了构建过程的可靠性和可维护性。对于企业级用户,新增了对RHEL 10及其克隆发行版的支持,使这些系统的用户能够更方便地部署Xpra。
在虚拟显示方面,Xpra现在支持使用weston配合Xwayland作为xvfb的替代方案,这为Wayland环境下的用户提供了更好的兼容性和性能表现。版本检查机制也得到了增强,现在可以基于分支进行更精确的版本验证。
编码与图形处理增强
视频编码方面,v6.3引入了对AMD AMF编码器的支持,为使用AMD显卡的用户提供了更高效的视频编码选项。服务器端编码器功能得到改进,现在可以更好地处理编码任务分配。在无损模式下,系统会智能避免色度子采样,确保图像质量不受损失。
OpenGL渲染器获得了YUVA格式支持,使得带有alpha通道的JPEG图像能够被正确处理。同时修复了OpenGL渲染器下窗口边框混合的问题,提升了视觉效果的一致性。OpenGL探测结果现在会被保存,减少了重复探测的开销。
网络与安全功能提升
网络传输方面实现了双向mmap支持,显著提高了大内存系统的数据传输效率。新增的Hyper-V连接支持为Windows虚拟化环境提供了更好的集成体验。
安全认证系统进行了多项改进:新增了基于HTTP头的认证模块;引入了连接信任机制,管理员可以更灵活地控制哪些连接被信任;认证模块和控命令现在设计为可复用组件,提高了系统的模块化程度。QUIC协议头验证机制的加入进一步增强了协议安全性,同时修复了AES加密相关的问题。
用户体验与配置改进
配置系统变得更加友好:xvfb现在支持别名配置,并提供了图形化的配置对话框。设置修改流程被简化,用户可以更轻松地调整各项参数。
键盘输入方面增加了对ibus键盘布局的支持,为使用ibus输入法的用户提供了更好的兼容性。显示刷新率现在可以指定范围,满足不同显示设备的需求。运行对话框现在会记住用户的选择,提高了操作效率。窗口菜单的访问方式也被优化,使其更加直观易用。
性能优化与代码质量
在性能方面,v6.3通过跳过未使用的慢速导入和避免不必要地加载numpy等优化措施,减少了启动时间和内存占用。代码结构方面引入了通用模块设计,提高了代码的复用性和可维护性。
总体而言,Xpra v6.3版本在功能、性能和用户体验方面都带来了显著提升,特别是对Windows平台、AMD硬件用户和企业级环境的支持得到了重点加强,使其成为更加强大和可靠的远程桌面解决方案。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00