RmlUi 6.1发布:UI引擎的重大升级与功能增强
RmlUi是一款轻量级、高性能的C++用户界面库,专为游戏和嵌入式应用设计。它采用类似HTML/CSS的标记语言和样式系统,同时保持了原生应用的性能和灵活性。RmlUi 6.1版本作为6.x系列的重要更新,带来了多项质量改进和新功能,显著提升了用户体验和开发效率。
核心改进:消除单像素间隙问题
在UI开发中,元素间出现1像素间隙是常见问题,特别是在DPI缩放布局中更为明显。RmlUi 6.1通过智能舍入渲染尺寸的技术解决了这一难题。该技术基于元素绝对位置对渲染尺寸进行舍入处理,确保相邻元素的边界完美对齐。这种处理方式与主流网页浏览器的行为一致,虽然可能导致元素尺寸最多有1像素的变化,但彻底消除了视觉上的间隙问题。
这一改进特别解决了以下场景:
- 相邻元素的边框或背景间的1像素间隙
- 表格单元格背景与表格边框的1像素重叠
- 弹性容器中嵌套元素间的间隙
- 裁剪区域与边框区域的1像素偏移
增强的元素功能
元素获得了多项重要升级,使其在UI布局中更加智能和可靠:
-
锚点保留机制:现在当移动或调整目标元素大小时,能够保留应用于目标元素的锚定关系。这意味着如果元素设置了所有inset属性(top/right/bottom/left),这些属性将决定元素大小并锚定到所有边缘,而不会破坏原有的布局关系。
-
边缘约束功能:新增的edge_margin属性允许开发者将目标元素约束在其包含块的边缘范围内。这个属性可以接受任何长度或百分比值,指定目标与包含块边缘之间的最小距离,支持单独设置各边距,甚至允许负值。
-
拖拽体验优化:修复了多个导致元素在拖拽开始时突然跳动的bug,包括当目标包含块有边框时,以及当目标设置为相对定位并从左上角偏移时的情况。
创新的文本装饰器
RmlUi 6.1引入了一个全新的text装饰器,允许开发者在元素背景上渲染文本。这一功能特别适合与图标字体配合使用,甚至可以为生成元素应用这类字体。装饰器语法简洁直观:
decorator: text("Hello 🌎 world!" blue bottom right);
文本字体继承自应用它的元素,但可以独立设置颜色。文本在元素内的对齐方式灵活多样,支持长度、百分比或关键字定位,同时还支持HTML语法的Unicode数字引用。
弹性布局优化
Flexbox布局系统获得了多项改进:
- 在列模式下自动应用弹性项的最小尺寸
- 性能优化:跳过不必要的交叉尺寸计算
- 修复了替换元素(如图像)在列方向布局中的假设宽度问题
- 解决了边缘尺寸为分数时可能导致断言失败的负弹性项尺寸问题
数据绑定增强
数据绑定系统变得更加灵活和健壮:
- 支持作用域枚举的自定义getter/setter
- 三元表达式现在使用跳转实现,确保只评估一个分支
- 修复了跨共享库边界时FamilyId值冲突的问题
动画系统升级
动画功能获得了显著增强:
- 新增颜色停止列表的插值功能,支持渐变装饰器中颜色和位置停止点的动画
- 改进了尝试动画化盒阴影时的警告信息
输入元素改进
表单输入元素获得了多项实用更新:
- 新增对range输入进度条样式的支持,通过新的sliderprogress子元素实现
- 改进了元素在
- 解决了密码输入字段中多字节字符的处理问题
渲染与性能优化
底层渲染系统获得了多项重要改进:
- 修复了使用不同尺寸的多个上下文时的错误裁剪问题
- 实现了纹理的延迟加载,仅在纹理可见时进行加载
- 改进了全局初始化过程,避免了main()之前的内存分配
- 新增了手动释放渲染管理器的功能
跨平台支持增强
RmlUi 6.1显著提升了跨平台支持能力:
- 更新了SFML后端,同时支持SFML 2和SFML 3
- 更新了所有SDL后端,同时支持SDL 2和SDL 3
- SDL 3新增了高DPI支持和输入法编辑器定位功能
- 改进了SDL输入处理,仅在文本输入字段获得焦点时提交文本输入事件
构建系统改进
构建过程变得更加灵活和可靠:
- 移除了GL3后端的OpenGL::GL依赖
- 修复了依赖检查签名问题
- 默认在MinGW上启用控制台日志
- 解决了多个特定编译环境下的构建问题
RmlUi 6.1通过这些全面而细致的改进,为开发者提供了更强大、更稳定的UI开发工具集,无论是游戏开发还是嵌入式应用,都能从中获得显著的开发效率提升和用户体验改善。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00