Drizzle ORM 连接 Supabase 数据库时出现 "Pulling schema" 卡住问题的分析与解决方案
问题描述
在使用 Drizzle ORM 和 Drizzle Kit 连接 Supabase PostgreSQL 数据库时,许多开发者遇到了一个常见问题:当执行 drizzle-kit push 命令时,进程会在"Pulling schema from database..."阶段卡住,无法继续执行。这个问题在社区中被广泛报告,影响了多个版本的使用体验。
问题表现
开发者们报告的主要症状包括:
- 命令执行后长时间停留在"Pulling schema from database..."状态
- 使用
--verbose参数时可能显示关于"dialect"未定义的 Zod 验证错误 - 问题似乎特别出现在连接 Supabase 数据库时
根本原因分析
经过社区成员的深入探索,发现问题可能与 Supabase 的连接模式有关。Supabase 提供了两种连接模式:
- 连接池模式(默认端口6543)
- 直接会话模式(标准PostgreSQL端口5432)
当使用连接池模式(6543端口)时,Drizzle Kit 似乎无法正确识别数据库方言(dialect),导致 schema 拉取过程失败。这可能是由于连接池中间件对某些元数据查询请求的处理方式与 Drizzle Kit 的预期不符。
解决方案
目前社区验证有效的解决方案是:
-
临时切换连接模式: 将连接字符串中的端口从默认的6543改为5432,使用 Supabase 的直接会话模式。例如:
postgres://postgres.[project-ref]:[password]@[host].pooler.supabase.com:5432/postgres完成数据库操作后,可以切换回连接池模式。
-
数据库重置方案: 如果切换端口无效,部分开发者报告可以通过以下步骤解决:
- 导出现有数据为CSV
- 完全重置数据库(删除所有表)
- 重新执行
drizzle-kit push - 重新导入数据
最佳实践建议
-
开发环境配置: 建议在开发环境中使用5432端口的直接连接,避免连接池可能带来的兼容性问题。
-
生产环境考量: 生产环境中如需使用连接池,应在完成 schema 迁移后再切换回连接池模式。
-
版本兼容性: 虽然问题在多个版本中持续存在,建议保持 Drizzle ORM 和 Drizzle Kit 版本同步更新。
技术细节补充
PostgreSQL 连接池与直接连接的主要区别在于:
- 连接池模式:中间件管理连接复用,适合高并发场景
- 直接连接:客户端与数据库直接通信,元数据查询更可靠
Drizzle Kit 在进行 schema 迁移时需要查询数据库的元数据信息(如表结构、列类型等),这些查询在通过连接池时可能出现信息丢失或格式不符的情况,导致工具无法正确解析数据库方言。
总结
Drizzle ORM 与 Supabase 的集成问题主要源于连接模式的选择。通过理解底层连接机制并采用适当的变通方案,开发者可以顺利完成数据库 schema 的迁移工作。建议开发团队关注此问题的官方修复进展,同时可以在开发流程中采用上述解决方案作为临时措施。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00