Longhorn项目v1.6.4版本安全更新实践
在分布式存储系统Longhorn的最新v1.6.4版本发布过程中,安全团队对系统组件进行了全面的安全扫描和修复工作。作为一款企业级云原生存储解决方案,Longhorn始终将安全性作为核心考量因素。本文将详细介绍此次版本升级中的安全加固过程。
安全扫描范围与方法
安全团队对Longhorn的各个核心组件进行了全面扫描,包括:
- 存储引擎(longhorn-engine)
- 实例管理器(longhorn-instance-manager)
- 后台镜像管理器(backing-image-manager)
- 共享管理器(longhorn-share-manager)
- UI界面(longhorn-ui)
- 支持工具包(support-bundle-kit)
同时,也对CSI相关外部组件进行了检查,如CSI附加器、CSI供应器、CSI快照控制器等。扫描工具采用了业界标准的安全检测方法,重点关注HIGH和CRITICAL级别的安全问题。
主要发现与修复方案
在扫描过程中,团队发现并处理了多类安全问题:
1. 依赖库更新
多个组件中使用的golang.org/x/net库存在安全更新需求,该问题涉及HTML解析器对大小写不敏感内容的非线性处理问题,被评级为HIGH风险。团队通过将依赖版本升级至0.33.0解决了此问题。
2. 系统软件包更新
在基于SUSE Linux Enterprise Server的镜像中,发现了libglib-2_0-0相关的安全更新需求。这类问题通过更新基础镜像版本至15.6得到解决,体现了使用最新基础镜像的重要性。
3. 间接依赖风险
部分组件如longhorn-manager中,通过k8s.io客户端库间接引入了opentelemetry相关依赖的安全更新需求。这类问题由于处于依赖链深层,团队评估后认为风险可控,决定暂不处理。
修复策略与技术考量
在安全修复过程中,团队制定了明确的策略:
-
优先级划分:首先处理CRITICAL级别问题,其次是HIGH级别。对于不影响核心功能的MEDIUM和LOW级别问题,视情况延后处理。
-
上游依赖管理:对于尚未发布更新版本的上游依赖(如grpc_health_probe),团队持续跟踪进展,暂不强行修改。
-
风险平衡:在安全修复与系统稳定性之间寻求平衡,避免因过度修复引入新的兼容性问题。
-
自动化检测:建立了自动化的安全扫描流程,确保每次构建都能及时发现新出现的风险。
最佳实践建议
基于此次修复经验,我们总结出以下云原生存储系统的安全实践:
-
定期基础镜像更新:保持基础操作系统镜像为最新版本,及时获取安全补丁。
-
依赖版本锁定:使用go.mod等机制精确控制依赖版本,避免隐式升级带来的不确定性。
-
分层安全策略:对不同组件实施差异化的安全要求,核心组件采用更严格的标准。
-
持续监控机制:建立自动化的安全监控流程,及时发现新披露的问题。
总结
Longhorn v1.6.4版本通过系统的安全扫描和修复工作,显著提升了整体安全性。这次实践不仅解决了已知风险,更建立了长效的安全机制,为后续版本的质量保障奠定了基础。作为开源存储项目,Longhorn将继续秉持安全透明的原则,为用户提供可靠的企业级存储解决方案。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00