FreeSql多租户场景下的表结构缓存优化实践
背景介绍
在基于FreeSql构建多租户系统时,开发人员常常会遇到一个典型问题:当不同租户使用相同的PostgreSQL数据库但位于不同的searchpath(搜索路径)下时,如何为每个租户实例维护独立的表结构缓存。这个问题在FreeSqlCloud等场景中尤为突出。
问题分析
FreeSql默认情况下使用全局静态的CacheTableEntityFactory来缓存表结构信息。这意味着当多个租户实例共享同一个FreeSql类型时,表结构缓存会被最后一个注册的配置覆盖,导致租户间的表结构映射出现混乱。
例如,当租户A将表映射为schemaA.tbname而租户B映射为schemaB.tbname时,如果使用全局缓存,最终只有一个映射关系会生效,这显然不符合多租户场景的需求。
解决方案演进
初始方案:自定义缓存工厂
最初提出的解决方案是通过UseCustomTableEntityCacheFactory方法为每个租户实例创建独立的缓存:
new FreeSqlBuilder().UseCustomTableEntityCacheFactory(() => {
Tkey _dbkey = (Tkey)AccessHelper.ReadPrivateField(fsq, "_dbkey");
var cache = FsqExtensionsCache<Tkey>.EntityConfigCache.GetOrAdd(_dbkey, (key) => new());
return cache;
});
这种方法虽然可行,但存在以下问题:
- 需要通过反射获取内部字段,不够优雅
- 需要开发者自行管理缓存生命周期
- 增加了代码复杂度
优化方案:使用连接工厂
更优雅的解决方案是利用FreeSql内置的UseConnectionFactory方法:
new FreeSqlBuilder().UseConnectionFactory(
DataType.CustomPostgreSQL,
() => new Npgsql.NpgsqlConnection(tenant_connectionString),
typeof(FreeSql.PostgreSQL.PostgreSQLProvider<>)
);
这种方法具有以下优势:
- 原生支持PostgreSQL的searchpath特性
- 无需处理表结构缓存问题
- 代码更加简洁直观
- 性能更好,无需额外的缓存管理
实现原理
当使用UseConnectionFactory方法时,FreeSql会为每个租户创建独立的数据库连接,这些连接可以配置不同的searchpath。PostgreSQL的searchpath特性会自动处理不同模式(schema)下的表访问,因此不再需要为每个租户单独维护表结构缓存。
最佳实践
对于PostgreSQL多租户场景,推荐以下实现方式:
- 为每个租户配置独立的连接字符串,包含特定的searchpath
- 使用
UseConnectionFactory方法创建租户特定的FreeSql实例 - 避免使用全局静态缓存,确保每个租户实例完全独立
总结
在FreeSql多租户架构设计中,正确处理表结构缓存是关键。通过利用PostgreSQL原生的searchpath特性和FreeSql的连接工厂机制,可以构建出既高效又易于维护的多租户解决方案。这种方法不仅解决了表结构缓存问题,还简化了代码结构,提高了系统的可维护性。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C094
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00