深入解析gfreewind/kernel_comment中的No New Privileges机制
什么是No New Privileges机制
No New Privileges(简称NNP)是Linux内核从3.5版本开始引入的一项重要安全特性。它的核心思想是:防止进程通过execve系统调用获得比父进程更高的权限。这个机制通过一个标志位来实现,一旦设置,就会在fork、clone和execve操作中继承,且无法撤销。
为什么需要NNP机制
在传统Linux系统中,execve调用可能会赋予新启动程序父进程所没有的权限。典型的例子包括:
- setuid/setgid程序:普通用户执行这些程序时会临时获得文件所有者的权限
- 文件能力(file capabilities):可执行文件可以携带特殊权限标志
为了防止父程序通过这些方式获得额外权限,内核和用户空间代码需要采取各种防护措施。但这些措施往往是零散的、针对特定场景的补丁式解决方案。NNP机制提供了一个统一的、通用的解决方案。
NNP的工作原理
NNP通过一个进程标志位来实现其功能。设置该标志位后:
- 执行execve时不会授予任何额外的权限
- setuid和setgid位不再改变uid或gid
- 文件能力不会添加到允许的权限集中
- 安全模块(LSM)不会在execve后放松约束
设置方法非常简单,只需调用prctl系统调用:
prctl(PR_SET_NO_NEW_PRIVS, 1, 0, 0, 0);
一旦设置,这个标志位就会在进程的整个生命周期中保持,无法取消。
使用场景与注意事项
主要应用场景
-
seccomp模式2沙箱:seccomp过滤器在execve后仍然有效,可能改变新执行程序的行为。NNP确保只有设置了该标志位的非特权用户才能安装此类过滤器。
-
减少攻击面:如果某个uid下的所有进程都设置了NNP,则该uid无法通过攻击setuid/setgid程序或使用文件能力的二进制文件来提升权限。
注意事项
- NNP不会阻止不涉及execve的权限变更(如直接调用setuid)
- 安全模块可能在NNP模式下不会加强execve的约束
- 使用NNP的服务启动器可能会干扰基于LSM的沙箱
技术深度解析
NNP机制实际上是对传统Unix权限模型的一个重要补充。在传统模型中,进程可以通过多种方式获得额外权限:
- setuid/setgid二进制文件:这是最常见的权限提升方式
- 能力机制:更细粒度的权限控制
- 环境变量:如LD_PRELOAD等可能被滥用的变量
NNP通过一个简单的标志位,统一解决了这些潜在的安全问题。它的设计体现了Linux安全模型的一个重要原则:显式优于隐式。
实际应用建议
对于系统开发者和安全工程师,NNP机制可以用于:
- 构建更安全的容器环境:结合chroot使用可以显著降低风险
- 实现安全的服务隔离:防止服务通过执行特权二进制文件提升权限
- 开发安全敏感应用:如密码管理器、认证代理等
未来发展方向
NNP机制为Linux安全模型开辟了新的可能性。未来可能会有更多潜在危险的内核特性在NNP设置的情况下对非特权任务开放,例如:
- 某些unshare和clone选项
- 与chroot结合使用的场景
- 其他需要限制权限提升的场景
总结
gfreewind/kernel_comment项目中关于No New Privileges的文档揭示了一个强大而简洁的内核安全机制。通过理解和使用这一机制,开发人员可以构建更加安全可靠的系统和服务。NNP不仅解决了现有的安全问题,还为未来的安全创新奠定了基础。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00