Gin-Vue-Admin项目中导出功能的软删除数据过滤实现
在现代Web应用开发中,数据导出功能是管理后台的常见需求。Gin-Vue-Admin作为一款基于Gin和Vue的企业级全栈开发框架,其导出功能在实际业务场景中扮演着重要角色。本文将深入探讨如何在该项目中实现导出功能对软删除数据的过滤支持。
软删除与数据导出的关系
软删除(Soft Delete)是一种常见的数据处理模式,它通过在数据表中添加deleted_at字段来标记记录是否被删除,而不是真正从数据库中移除数据。这种设计有以下优势:
- 保留历史数据以便审计
- 支持数据恢复功能
- 避免外键约束问题
然而,在数据导出场景下,通常不希望包含已被软删除的记录,这会导致以下问题:
- 导出的数据与前端列表展示不一致
- 可能泄露敏感数据
- 影响数据分析的准确性
技术实现方案
前端实现
在Vue组件层面,我们通过以下方式增强导出功能:
-
新增过滤配置选项
在导出模板配置中添加filterDeleted属性,默认值为true,确保大多数情况下自动过滤已删除数据。 -
请求参数处理
在发起导出请求时,将过滤选项作为参数传递给后端:const paramsCopy = JSON.parse(JSON.stringify(props.condition)) if (props.filterDeleted) { paramsCopy.filterDeleted = 'true' } -
用户界面展示
在导出配置界面添加直观的复选框控件,让管理员可以灵活选择是否包含已删除数据:<el-checkbox v-model="templateForm.filterDeleted">自动过滤已删除数据</el-checkbox>
后端实现
后端采用Gin框架,主要增强点包括:
-
数据库模型扩展
在SysExportTemplate模型中新增FilterDeleted字段,使用指针类型以区分零值和未设置情况:type SysExportTemplate struct { FilterDeleted *bool `json:"filterDeleted" gorm:"default:true"` } -
智能过滤逻辑
导出服务中实现多层次的过滤控制:func (s *SysExportTemplateService) ExportExcel(...) { // 优先使用模板配置 filterDeleted := true if template.FilterDeleted != nil { filterDeleted = *template.FilterDeleted } // 允许请求参数覆盖 if values.Get("filterDeleted") == "false" { filterDeleted = false } // 应用过滤条件 if filterDeleted { db = db.Where(fmt.Sprintf("%s.deleted_at IS NULL", template.TableName)) } } -
关联表处理
对于关联查询,自动检测关联表是否支持软删除:func (s *SysExportTemplateService) hasDeletedAtColumn(tableName string) bool { var count int64 global.GVA_DB.Raw("SELECT COUNT(*) FROM INFORMATION_SCHEMA.COLUMNS WHERE TABLE_NAME = ? AND COLUMN_NAME = 'deleted_at'", tableName).Count(&count) return count > 0 }
设计考量与最佳实践
-
默认安全性
采用"安全默认值"原则,默认过滤已删除数据,避免意外数据泄露。 -
灵活性
提供多层次的配置覆盖能力:- 模板级默认配置
- 单次导出参数覆盖
- 关联表自动适应
-
性能优化
通过数据库元信息查询避免不必要的过滤条件,提升查询效率。 -
迁移兼容性
为现有系统提供平滑升级路径,通过迁移脚本为旧模板设置合理默认值。
实际应用建议
-
审计场景
当需要导出包含历史删除记录时,可通过临时参数filterDeleted=false获取完整数据。 -
定期维护
建议定期检查导出模板配置,确保过滤设置符合当前业务需求。 -
权限控制
对于敏感数据,可在服务端强制启用过滤,忽略前端参数。
总结
Gin-Vue-Admin通过系统化的软删除过滤实现,为数据导出功能提供了更加专业和安全的解决方案。这种实现不仅考虑了技术实现的完整性,还充分兼顾了实际业务场景的多样性需求。开发者可以根据本文介绍的模式,在自己的项目中实现类似功能,或者基于此进行进一步的定制开发。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00