Redis 7.4.3版本发布:安全修复与性能优化
Redis是一个开源的内存数据结构存储系统,被广泛用作数据库、缓存和消息代理。它支持多种数据结构,如字符串、哈希、列表、集合等,并提供了丰富的功能特性。Redis以其高性能、低延迟和可靠性著称,是当今最流行的NoSQL数据库之一。
安全修复:CVE-2025-21605问题修复
本次7.4.3版本最重要的更新是针对CVE-2025-21605安全问题的修复。该问题允许未经身份验证的客户端导致输出缓冲区异常增长,可能引发严重的系统问题。
在Redis的网络通信模型中,每个客户端连接都有自己的输出缓冲区,用于存储服务器准备发送给客户端的响应数据。正常情况下,Redis会监控这些缓冲区的大小,防止其过度增长消耗过多内存。然而,在这个问题中,某些操作可以绕过这些保护机制,使输出缓冲区不受控制地增长,最终可能导致服务器资源耗尽,引发服务不可用情况。
修复后的版本通过改进输出缓冲区的管理机制,确保在任何情况下都能正确限制其大小,防止异常客户端行为。对于生产环境中的Redis实例,强烈建议尽快升级到7.4.3版本以避免潜在的系统风险。
重要Bug修复
内存泄漏问题
在7.4.3版本中修复了使用FUNCTION FLUSH命令时可能发生的内存泄漏问题,特别是在使用jemalloc内存分配器的情况下。jemalloc是一种高性能的内存分配器,Redis默认使用它来管理内存。当执行FUNCTION FLUSH命令清除所有函数时,某些情况下未能正确释放相关内存,导致内存泄漏。这个问题在长时间运行的Redis实例中可能逐渐累积,最终影响系统性能。
WAITAOF命令改进
WAITAOF命令用于等待指定数量的AOF(append-only file)写入操作完成。在之前的版本中,该命令存在提前返回的问题,可能导致客户端在AOF操作实际完成前就收到响应。7.4.3版本修复了这个问题,确保WAITAOF命令能准确等待所有指定的AOF操作完成后再返回,提高了数据持久化的可靠性。
SLAVEOF命令稳定性提升
修复了在执行SLAVEOF命令(用于将Redis实例配置为另一个实例的副本)时,如果有客户端被阻塞等待懒释放(lazy free)操作完成,可能导致服务器崩溃的问题。懒释放是Redis的一种内存回收机制,它允许在低峰期执行某些内存释放操作以提高性能。这个修复提高了Redis在主从切换场景下的稳定性。
RANDOMKEY命令优化
RANDOMKEY命令用于随机返回数据库中的一个键。在之前的版本中,当Redis处于客户端暂停状态时,该命令可能陷入无限循环。7.4.3版本改进了这一行为,确保在任何情况下都能正确返回结果或错误信息。
分片ID一致性修复
对于支持分片ID(shardID)的Redis集群,修复了在主节点和副本节点同时支持分片ID时可能出现的不一致问题。这一改进确保了在分布式环境中分片ID的正确性和一致性,对于使用Redis集群的用户尤为重要。
升级建议
对于所有使用Redis 7.x版本的用户,特别是那些暴露在公共网络环境中的实例,建议尽快升级到7.4.3版本以获取最新的安全修复和稳定性改进。升级前应做好充分测试,并确保有完整的备份方案。
Redis 7.4.3版本虽然是一个小版本更新,但包含了多个关键问题的修复,特别是安全问题的修补,对于保障Redis实例的安全稳定运行具有重要意义。开发者和运维人员应当重视这次更新,及时评估升级的必要性并制定相应的升级计划。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00