HarfBuzz 11.0.0 发布:字体渲染引擎的重大升级
HarfBuzz 是一个开源的文本整形引擎,主要用于复杂脚本的排版和字体渲染。它被广泛应用于各种操作系统和应用程序中,如 Android、Chrome、Firefox 等,负责将 Unicode 文本转换为字形索引和位置,以实现高质量的文本显示。
核心功能增强
HarfBuzz 11.0.0 版本引入了多项重要改进,主要集中在字体功能实现和性能优化方面:
- 新增三种字体功能实现:
hb-coretext:基于 CoreText 库的实现hb-directwrite:基于 DirectWrite 库的实现hb-fontations:基于 Skrifa Rust 库的实现
这些实现不仅为性能测试和正确性验证提供了更多选择,也为特定需求的客户端提供了更多灵活性。开发者现在可以通过统一的 API hb_font_set_funcs_using() 来使用这些后端实现。
- 新增字体加载 API:
版本 11.0.0 引入了一系列新的 API,用于通过不同的"face-loaders"加载字体面,并提供了统一的入口点:
- FT(FreeType)相关:
hb_ft_face_create_from_file_or_fail()和hb_ft_face_create_from_blob_or_fail() - CoreText 相关:
hb_coretext_face_create_from_file_or_fail()和hb_coretext_face_create_from_blob_or_fail() - DirectWrite 相关:
hb_directwrite_face_create_from_file_or_fail()和hb_directwrite_face_create_from_blob_or_fail() - 统一入口:
hb_face_create_from_file_or_fail_using()
- FT(FreeType)相关:
性能优化与内存管理
本次版本在性能方面做出了显著改进:
-
内存分配优化: 所有使用默认
hb-ot函数的绘图和绘制操作现在都实现了零内存分配,这将显著提升高频绘图场景下的性能表现。 -
新增内存管理 API: 引入了
hb_malloc、hb_calloc、hb_realloc和hb_free等内存管理函数,为开发者提供了更灵活的内存控制能力。
功能改进与稳定性提升
-
trak 表应用改进: 在文本整形过程中对
trak表的应用进行了优化,提升了复杂排版场景下的准确性。 -
DirectWrite 增强:
- 现在支持字体变体(font variations)
- 正确应用用户特性
hb-directwriteAPI 和整形器已从实验状态毕业,成为稳定功能
-
新增绘图相关 API: 引入了
hb_paint_push_font_transform和hb_paint_push_inverse_font_transform等函数,增强了字体变换处理能力。 -
缓冲区集群级别定义: 新增了多个缓冲区集群级别相关的宏定义,如
HB_BUFFER_CLUSTER_LEVEL_GRAPHEMES等,为文本处理提供了更精细的控制。
向后兼容性
需要注意的是,hb_directwrite_font_get_dw_font API 已被标记为废弃,开发者应迁移至新的替代方案。
总结
HarfBuzz 11.0.0 通过引入多种字体功能实现、优化内存管理和提升性能,为开发者提供了更强大、更高效的文本处理工具。特别是对 DirectWrite 支持的完善和对内存分配的优化,将显著提升复杂文本渲染场景下的性能表现。这些改进使得 HarfBuzz 在现代多语言文本处理领域继续保持领先地位。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C0123
let_datasetLET数据集 基于全尺寸人形机器人 Kuavo 4 Pro 采集,涵盖多场景、多类型操作的真实世界多任务数据。面向机器人操作、移动与交互任务,支持真实环境下的可扩展机器人学习00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python059
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7-FlashGLM-4.7-Flash 是一款 30B-A3B MoE 模型。作为 30B 级别中的佼佼者,GLM-4.7-Flash 为追求性能与效率平衡的轻量化部署提供了全新选择。Jinja00