Laravel-Countries项目中的全局作用域详解
引言
在Laravel-Countries项目中,全局作用域(Global Scopes)是一个非常重要的概念,它可以帮助开发者自动过滤和优化数据查询。本文将深入解析项目中默认应用的两个全局作用域,帮助开发者更好地理解和使用它们。
什么是全局作用域
全局作用域是Laravel Eloquent模型的一个强大特性,它允许开发者定义一组查询约束条件,这些条件会自动应用到模型的所有查询中。在Laravel-Countries项目中,Country模型和Region模型默认启用了两个全局作用域。
默认全局作用域
1. 可见性作用域(Visible Scope)
这个作用域确保只有is_visible字段为true的国家/地区才会被查询出来。其底层实现相当于在所有查询中自动添加了:
$builder->where('is_visible', true);
这意味着默认情况下,所有被标记为不可见的国家/地区都会被自动过滤掉,无需开发者手动添加这个条件。
2. 翻译作用域(Translation Scope)
这个作用域确保每次查询国家/地区数据时,都会自动预加载(Eager Loading)关联的翻译数据。其底层实现相当于:
$builder->withTranslation();
这避免了N+1查询问题,提高了应用性能,同时也简化了开发者的工作。
如何禁用全局作用域
虽然全局作用域非常有用,但有时我们需要绕过这些默认约束。Laravel-Countries项目提供了便捷的方法来临时禁用这些作用域。
禁用翻译作用域
使用withNotTranslation()方法可以在特定查询中移除翻译作用域:
use Lwwcas\LaravelCountries\Models\Country;
// 获取英国数据,但不预加载翻译
Country::withNotTranslation()
->whereName('United Kingdom')
->first();
禁用可见性作用域
使用withNotVisible()方法可以在特定查询中移除可见性过滤:
use Lwwcas\LaravelCountries\Models\Country;
// 获取英国数据,包括不可见的记录
Country::withNotVisible()
->whereName('United Kingdom')
->first();
实用方法
除了全局作用域外,项目还提供了一系列实用方法来操作和检查可见性状态:
| 方法名称 | 描述 |
|---|---|
| isVisible() | 检查国家/地区是否可见(返回布尔值) |
| isHidden() | 检查国家/地区是否隐藏(返回布尔值) |
| setVisibleTrue() | 将国家/地区标记为可见 |
| setVisibleFalse() | 将国家/地区标记为不可见 |
| setModelVisible() | 将国家/地区标记为可见(与setVisibleTrue()相同) |
| setModelHidden() | 将国家/地区标记为不可见(与setVisibleFalse()相同) |
使用建议
-
性能考虑:默认启用的翻译作用域虽然方便,但如果确定不需要翻译数据,可以使用
withNotTranslation()来提高查询性能。 -
数据完整性:在后台管理系统中,可能需要查看所有国家/地区(包括不可见的),这时可以使用
withNotVisible()。 -
批量操作:当需要批量修改国家/地区的可见性状态时,可以使用提供的set方法,它们会自动处理模型的保存操作。
注意事项
- 全局作用域是默认启用的,除非显式禁用
- 禁用作用域只对当前查询有效,不会影响其他查询
- 修改可见性状态后,模型会自动保存,无需额外调用save()方法
通过理解这些全局作用域和实用方法,开发者可以更高效地使用Laravel-Countries项目,构建出更健壮的国际化和地区相关的应用功能。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00