pgrx v0.14.0 发布:支持 Windows 平台与多项重要更新
pgrx 是一个用于开发 PostgreSQL 扩展的 Rust 框架,它允许开发者使用 Rust 语言编写高性能、安全的数据库扩展。最新发布的 v0.14.0 版本带来了多项重要更新,其中最引人注目的是对 Windows 平台的支持,这标志着 pgrx 框架跨平台能力的重要突破。
Windows 平台支持
v0.14.0 版本首次正式支持 Windows 平台,这是一个重要的里程碑。在 Windows 上使用 pgrx 开发 PostgreSQL 扩展时,需要注意以下几点关键事项:
-
必须启用 pgrx 的
cshim特性,可以通过在项目的 Cargo.toml 中配置或使用cargo build --features pgrx/cshim命令来启用。 -
编译器现在会将代码和数据放在不同的段(section)中,这是 Windows 平台的特殊要求。
-
所有标记为
#[pg_guard]的函数现在必须使用"C-unwind"ABI(应用二进制接口),这一变更不仅适用于 Windows,也适用于所有支持的平台。"C-unwind"ABI 允许异常在跨语言边界时正确展开堆栈,这对于保证程序在异常情况下的正确行为至关重要。
重要变更与改进
移除对 PostgreSQL 12 的支持
v0.14.0 正式移除了对 PostgreSQL 12 的支持。如果项目仍需支持 PostgreSQL 12,需要将依赖锁定在 pgrx v0.13.1 版本。这一变更反映了项目对保持现代性和维护效率的考量。
API 变更与改进
-
DatumWithOid 增强:新增了
new_from_datum和null_oid方法,提供了更灵活的方式来处理带有 OID 的数据。 -
统计信息支持:实现了
pgstat宏,使得扩展可以更方便地收集和报告统计信息。 -
OID 类型改进:为
Oid类型实现了Displaytrait,并重命名了as_u32方法为to_u32,使其更符合 Rust 的命名惯例。 -
事务 ID 支持:新增了对 PostgreSQL 事务 ID (
xid) 类型的映射支持,现在可以在#[pg_extern]函数中使用pg_sys::TransactionId作为参数或返回类型。
性能优化
-
数组处理优化:通过消除中间 Vec 分配,优化了数组的
IntoDatum实现,减少了内存分配和复制操作。 -
高效操作:新增了
PgHeapTuple::set_by_index_unchecked方法,为需要极致性能的场景提供了不进行检查的版本。
新增 PostgreSQL 头文件支持
v0.14.0 包含了更多 PostgreSQL 内部头文件的绑定,为开发者提供了更全面的底层访问能力:
- 存储层内部结构 (
storage/buf_internals.h) - 文本搜索缓存 (
tsearch/ts_cache.h) - 表空间缓存 (
utils/spccache.h) - 分区相关头文件
这些新增的头文件绑定使得开发者能够实现更复杂、更底层的数据库功能。
开发者体验改进
-
交叉编译支持:现在可以更方便地为不同目标平台编译扩展。
-
代码质量提升:进行了大量的代码清理和 lint 修正,提高了代码的整体质量。
-
文档改进:修正了多处文档错误,并更新了 Windows 平台的使用说明。
升级建议
升级到 v0.14.0 时,开发者需要注意以下几点:
-
检查所有使用
#[pg_guard]的函数,确保它们使用"C-unwind"ABI。 -
更新
PgLwLock和PgAtomic的使用方式,因为这些类型的构造函数现在需要名称参数。 -
在 Linux 上使用
--runas选项前,需要先执行sudo sysctl fs.protected_fifos=0来调整内核设置。 -
如果项目仍需要支持 PostgreSQL 12,需要明确锁定 pgrx 依赖版本为 0.13.1。
pgrx v0.14.0 的这些改进和新特性,特别是 Windows 平台支持,大大扩展了 Rust 开发 PostgreSQL 扩展的可能性,为开发者提供了更强大、更灵活的工具集。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
ruoyi-plus-soybeanRuoYi-Plus-Soybean 是一个现代化的企业级多租户管理系统,它结合了 RuoYi-Vue-Plus 的强大后端功能和 Soybean Admin 的现代化前端特性,为开发者提供了完整的企业管理解决方案。Vue06- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00