Kysely 0.27.6 版本发布:SQL 查询构建器的优化与改进
Kysely 是一个类型安全的 SQL 查询构建器,专为 TypeScript 设计。它提供了优雅的 API 来构建和执行 SQL 查询,同时保持了完整的类型安全。Kysely 支持多种数据库方言,包括 PostgreSQL、MySQL 和 SQLite 等,让开发者能够以一致的方式与不同数据库交互。
核心功能改进
在 0.27.6 版本中,Kysely 团队主要专注于错误修复和稳定性提升,为即将到来的 0.28 版本做准备。这个版本虽然没有引入重大新功能,但对现有功能进行了多项重要优化。
驼峰命名转换插件的增强
团队修复了驼峰命名转换插件中的下划线验证问题。这个插件负责将数据库中的下划线命名风格(如 user_name)转换为 JavaScript 中更常见的驼峰命名风格(如 userName)。修复后,插件能更准确地处理各种命名情况,确保类型系统能正确推断字段名称。
批量插入参数处理优化
修复了一个边缘情况,当批量插入操作中包含不同形状的数据时,可能导致参数变为 undefined 的问题。这个修复确保了即使插入的数据结构有差异,参数也能被正确处理,提高了批量插入操作的可靠性。
数据库方言特定改进
PostgreSQL 方言优化
-
迁移文件排序:现在使用 JavaScript 的原生排序方法来按名称排序迁移文件,确保在不同环境下迁移顺序的一致性。
-
Schema 插件修复:修复了 WithSchemaPlugin 在表函数参数(如 json_agg 和 to_json)中错误添加 schema 的问题,避免了由此产生的数据库错误。
SQLite 方言改进
修复了整数主键的自动递增标识问题。现在当字段被标记为整数主键时,isAutoIncrementing 属性会正确地设置为 true,更好地反映了 SQLite 的实际情况。
文档与社区建设
Kysely 团队在这个版本中投入了大量精力完善文档和社区规范:
- 更新了贡献指南,使新贡献者更容易参与项目
- 添加了详细的行为准则(CoC),明确了社区交流规范
- 完善了 FUNDING 文件,支持项目可持续发展
- 修复了多处文档中的小错误和表述不清的地方
- 新增了 Oracle 和 PGlite 等数据库方言的文档说明
技术细节与开发者体验
对于开发者而言,0.27.6 版本虽然没有引入破坏性变更,但多项底层修复显著提升了开发体验:
- 类型推断更加准确,特别是在使用命名转换插件时
- 批量操作更加可靠,减少了边缘情况下的错误
- 数据库特定功能的行为更加符合预期
- 文档更加完善,降低了学习曲线
这些改进使得 Kysely 作为类型安全 SQL 查询构建器的定位更加稳固,为开发者提供了更强大的工具来构建数据访问层。
展望未来
虽然 0.27.6 是一个维护版本,但它为即将到来的 0.28 版本奠定了基础。从提交历史可以看出,团队正在积极准备新功能,同时确保现有功能的稳定性。对于正在使用 Kysely 的项目,升级到这个版本可以获得更好的稳定性和更少的边缘情况错误,同时为未来版本的无缝升级做好准备。
对于新用户,现在是一个很好的时机开始使用 Kysely,因为文档和社区规范已经相当完善,而核心功能的稳定性也得到了显著提升。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
yuanrongopenYuanrong runtime:openYuanrong 多语言运行时提供函数分布式编程,支持 Python、Java、C++ 语言,实现类单机编程高性能分布式运行。Go051
MiniCPM-SALAMiniCPM-SALA 正式发布!这是首个有效融合稀疏注意力与线性注意力的大规模混合模型,专为百万级token上下文建模设计。00
ebook-to-mindmapepub、pdf 拆书 AI 总结TSX01